Tras su renuncia, el pionero de la inteligencia artificial", Geoffrey Hinton, se convirtió en predicador de los peligros que conlleva este tipo de tecnología.
El Político
Hinton confirmó este lunes que dejó su puesto en Google la semana pasada para alertar sobre los "peligros" de la tecnología que él mismo ayudó a desarrollar.
Panorama general
El trabajo pionero de Hinton sobre redes neuronales dio forma a los sistemas de inteligencia artificial que impulsan muchos de los productos actuales, reportó CNN.
Trabajó a medio tiempo en Google durante una década en las labores de desarrollo de inteligencia artificial del gigante tecnológico, pero ahora le preocupa la tecnología y el papel que desempeñó en su desarrollo.
En un tuit de este lunes, Hinton dijo que renunció a Google para poder hablar libremente sobre los peligros de la inteligencia artificial (IA), más que por un deseo de criticar específicamente a Google.
"Me fui para poder hablar sobre los peligros de la IA sin tener en cuenta cómo esto afecta a Google", dijo Hinton en un tuit. "Google ha actuado de forma muy responsable".
In the NYT today, Cade Metz implies that I left Google so that I could criticize Google. Actually, I left so that I could talk about the dangers of AI without considering how this impacts Google. Google has acted very responsibly.
— Geoffrey Hinton (@geoffreyhinton) May 1, 2023
¿Por qué es importante?
La decisión de Hinton de retirarse de la compañía y hablar sobre la tecnología se produce en un momento en que un número creciente de legisladores, grupos de defensa y conocedores de la tecnología han hecho saltar las alarmas sobre el potencial de una nueva cosecha de chatbots potenciados por IA para difundir información errónea y desplazar empleos.
La oleada de atención suscitada por ChatGPT a finales del año pasado contribuyó a renovar una carrera armamentística entre las empresas tecnológicas para desarrollar e implantar herramientas de IA similares en sus productos.
OpenAI, Microsoft y Google están a la cabeza de esta tendencia, pero IBM, Amazon, Baidu y Tencent están trabajando en tecnologías similares.
Geoffrey Hinton, considerado el "padrino de la inteligencia artificial", confirmó que dejó su puesto en Google para alertar sobre los "peligros" de la tecnología que él mismo ayudó a desarrollar. https://t.co/DiuGJYNOOD
— CNN en Español (@CNNEE) May 1, 2023
Década de contribuciones
Jeff Dean, jefe científico de Google, dijo que Hinton "ha hecho avances fundacionales en IA" y expresó su agradecimiento por la "década de contribuciones de Hinton en Google".
"Estamos aprendiendo continuamente para comprender los riesgos emergentes al tiempo que innovamos con audacia".
Geoffrey Everest Hinton es un psicólogo cognitivo e informático británico-canadiense, conocido sobre todo por su trabajo en redes neuronales artificiales.
De 2013 a 2023, dividió su tiempo trabajando para Google (Google Brain) y la Universidad de Toronto, antes de anunciar públicamente su marcha de Google en mayo de 2023 alegando su preocupación por los riesgos de la tecnología de inteligencia artificial (IA).
Tras su renuncia, alabó a Google por actuar de forma "muy responsable" mientras desarrollaba su IA. En 2017, cofundó y se convirtió en asesor científico jefe del Vector Institute de Toronto.
First 4K screenshots of ARMORED CORE VI pic.twitter.com/nnJ5LglpB6
— Geoff Keighley (@geoffkeighley) April 27, 2023
En contexto
En marzo, algunas figuras destacadas de la tecnología firmaron una carta en la que pedían a los laboratorios de inteligencia artificial que detuvieran el entrenamiento de los sistemas de IA más potentes durante al menos seis meses, citando "profundos riesgos para la sociedad y la humanidad".
La carta, publicada por el Future of Life Institute, una organización sin fines de lucro respaldada por Elon Musk, llegó apenas dos semanas después de que OpenAI anunciara GPT-4, una versión aún más potente de la tecnología que impulsa ChatGPT.
En las primeras pruebas y en una demostración de la empresa, GPT-4 se utilizó para redactar demandas, aprobar exámenes estandarizados y crear un sitio web funcional a partir de un boceto dibujado a mano.
La ONU advierte sobre los peligros de la Inteligencia Artificial
La ONU advirtió hace unas semanas sobre los peligros que conlleva el uso de la Inteligencia Artifical (IA) y pidió a las empresas que sean responsables.
"Pienso que es muy preocupante (…). La IA es una tecnología que puede traer grandes beneficios en educación y ciencias. Sin embargo, las empresas deben responsabilizarse en la forma que esta información se publica porque se puede hacer un mal uso de ella", ha declarado en una rueda de prensa el portavoz de la Secretaría General de Naciones Unidas, Stéphane Dujarric.
Dujarric expresó sus preocupaciones en referencia a programas de inteligencia artificial como ChatGPT, que han conseguido alterar imágenes, replicar voces y crear textos de forma que pueden aumentar "la violencia y la desinformación".
Ejemplo de ello son las fotos creadas por la propia IA del Papa Francisco llevando un chaquetón y unas zapatillas deportivas blancas, o la creación de unas imágenes de Donald Trump siendo detenido.
También explicó que uno de los problemas radica en que el sector tecnológico opera fuera de los controles gubernamentales de forma mayoritaria.
En esa línea, señaló que la ONU ha organizado reuniones entre los gobiernos, el sector privado y la sociedad civil para intentar garantizar que no se abuse de esta tecnología a la par que se pueda aprovechar el "inmenso potencial positivo" que puede traer.
Además, ha asegurado que el secretario general de Naciones Unidas, António Guterres, lleva tiempo advirtiendo al respecto.
"La inteligencia artificial viene con la promesa de mejorar el acceso a la sanidad, a acelerar el desarrollo económico y otras beneficios. Pero también podemos ver los peligros: un mundo con menos privacidad, menos intervención y responsabilidad humana y donde la desigualdad de ingresos se amplía y el acceso al trabajo se reduce para millones personas", declaró Guterres en mayo de 2019.
En conclusión
En la entrevista con The New York Times, Hinton se sumó a las preocupaciones sobre el potencial de la inteligencia artificial para eliminar puestos de trabajo y crear un mundo en el que muchos "ya no serán capaces de saber qué es verdad".
También señaló el asombroso ritmo de avance, mucho más allá de lo que él y otros habían previsto.
"La idea de que estas cosas pudieran llegar a ser más inteligentes que las personas, unos pocos lo creían", dijo Hinton en la entrevista. "Pero la mayoría pensaba que no era así. Y yo también. Pensaba que faltaban de 30 a 50 años o incluso más. Obviamente, ya no pienso eso".
Incluso antes de apartarse de Google, Hinton había hablado públicamente sobre el potencial de la IA para hacer tanto daño como bien.
"Creo que el rápido progreso de la IA va a transformar la sociedad de formas que no comprendemos del todo y no todos los efectos van a ser buenos", dijo Hinton en un discurso de apertura de 2021 en el Instituto Indio de Tecnología de Bombay.
Señaló que la IA impulsará la atención sanitaria, pero también creará oportunidades para las armas autónomas letales.
"Esta perspectiva me parece mucho más inmediata y mucho más aterradora que la de que los robots tomen el control, que creo que está muy lejos", añadió.
Hinton no es el primer empleado de Google en sonar las alarmas la IA. En julio, la empresa despidió a un ingeniero que afirmaba que un sistema de IA aún no publicado se había vuelto consciente, alegando que había infringido las políticas de empleo y de seguridad de datos. Muchos miembros de la comunidad de la IA rechazaron enérgicamente la afirmación del ingeniero.