Eliezer Yudkowsky, investigador y uno de los pioneros sobre la inteligencia artificial (IA), pidió prohibirla de forma “indefinida y a nivel mundial”.
A través del “No basta con detener el desarrollo de la IA”, publicado en la revista Time el pasado viernes, fijó su postura.
Estas declaraciones llegan tras la carta firmada por 1.125 personas, para pedir una pausa durante seis meses de los experimentos con IA. Asimismo, el manifiesto solicita detener el avance de las herramientas de IA más potentes como ChatGPT de OpenAI y establecer los protocolos de seguridad.
Como consecuencia, Eliezer Yudkowsky advierte que esa medida se queda corta y aboga por cerrar los centros de datos de IA de forma indefinida.
“Muchos investigadores inmersos en estos temas, incluyéndome a mí, esperan que el resultado más probable de construir una IA sobrehumanamente inteligente, bajo cualquier circunstancia remotamente parecida a las actuales, es que, literalmente, todos en la Tierra morirán. No es que no puedas, en principio, sobrevivir creando algo mucho más inteligente que tú, es que requeriría precisión y preparación y nuevos conocimientos científicos”.