Connect with us

Internacional

Existe riesgo contra la humanidad por la Inteligencia Artificial.

Publicado

el

#Blogs #Tecnología

Existe riesgo contra la humanidad por la Inteligencia Artificial.

La idea de que la inteligencia artificial podría llegar a ser difícil de controlar y destruir a la humanidad, de forma accidental o deliberada, ha sido debatida durante mucho tiempo por varios expertos. 

 

 

Los principales representantes en el desarrollo de sistemas de inteligencia artificial, entre ellos el CEO de OpenAI, Sam Altman, y el CEO de Google DeepMind, Demis Hassabis, firmaron una declaración en la que advierten sobre la tecnología que están construyendo, indicando que puede suponer algún día una amenaza para la existencia de la humanidad comparable a la de una guerra nuclear o una pandemia.

En su visita a Londres, el CEO de OpenAI pidió una regulación equilibrada y advirtió sobre los riesgos de la desinformación generada por el uso de la inteligencia artificial.

Además de Altman y Hassabis, la declaración está firmada por Dario Amodei, CEO de Anthropic, una startup dedicada al desarrollo de IA centrada en la seguridad. Otros firmantes son Geoffrey Hinton y Yoshua Bengio, dos de los tres académicos galardonados con el Premio Turing por su trabajo en el aprendizaje profundo, la tecnología que sustenta los avances modernos en el aprendizaje automático y la IA. También firmaron docenas de empresarios e investigadores que trabajan en los problemas más nuevos relacionados con esta tecnología.

“Mitigar el riesgo de extinción a causa de la inteligencia artificial debería ser una prioridad mundial junto a otros riesgos a escala social, como las pandemias y la guerra nuclear”, dice la declaración de una sola frase, publicada hoy por el Center for AI Safety, una organización sin fines de lucro.

Dan Hendrycks, director del Centro para la Seguridad de la IA, comparó el actual momento de preocupación en torno a la inteligencia artificial con el debate entre científicos suscitado por el desarrollo de las armas nucleares. “Tenemos que entablar las conversaciones que mantenían los científicos nucleares antes de la creación de la bomba atómica”, destacó Hendrycks en una cita publicada junto con la declaración de su organización.

“La declaración es una gran iniciativa”, señala Max Tegmark, profesor de física del Instituto Tecnológico de Massachusetts y director del Future of Life Institute, una organización sin fines de lucro dedicada a los riesgos a largo plazo que plantea la IA. En marzo, el instituto de Tegmark publicó una carta en la que pedía una pausa de seis meses en el desarrollo de algoritmos avanzados de inteligencia artificial para poder evaluar los riesgos. La carta fue firmada por cientos de investigadores y directivos de IA, entre ellos Elon Musk.

Tegmark espera que la iniciativa aliente a los gobiernos y a la población en general a tomarse más en serio los riesgos que supone la inteligencia artificial para nuestra existencia. “El resultado ideal es que la amenaza de extinción debido a la IA se convierta en algo generalizado que permita a todos hablar de ella sin miedo a las burlas”, añadió.

¿Cómo funcionan los modelos utilizados en la IA?

El actual tono de alarma está ligado a varios avances en el rendimiento de los algoritmos de IA conocidos como grandes modelos de lenguaje. Estos consisten en un tipo específico de redes neuronales artificiales que se entrenan con enormes cantidades de texto escrito por humanos, para predecir las palabras que deberían seguir a una cadena determinada. Cuando se les suministran suficientes datos, y con un entrenamiento adicional en forma de retroalimentación humana sobre las respuestas correctas y equivocadas, son capaces de generar texto y responder a preguntas con notable elocuencia y aparente conocimiento, aunque lo que digan esté a menudo plagado de errores.

Estos modelos de lenguaje han demostrado ser cada vez más coherentes y capaces a medida que se les ha ido proporcionando más información y capacidad de procesamiento. El modelo más potente creado hasta ahora, el GPT-4 de OpenAI, es capaz de resolver problemas complejos, incluidos los que parecen requerir algunas formas de abstracción y razonamiento de sentido común.

Los modelos de lenguaje han ido mejorando en los últimos años, pero el lanzamiento de ChatGPT el pasado noviembre llamó la atención pública sobre el poder de los últimos programas de IA, además de los posibles problemas que pueden causar. ChatGPT y otros chatbots avanzados pueden mantener conversaciones coherentes y responder a todo tipo de preguntas aparentando una comprensión real. Pero estos programas también muestran prejuicios, inventan hechos y pueden ser inducidos a comportarse de formas extrañas y desagradables.