A medida que avanza el desarrollo de las tecnologías basadas en Inteligencia Artificial, surge la pregunta: ¿podría destruir la humanidad?
El Político
La Inteligencia Artificial – IA es un tema de debate desde hace años. Muchos expertos han advertido que podría suponer un riesgo potencial para la humanidad.
En este sentido, recientemente cientos de personas muy conocidas en el mundo de la IA firmaron una carta abierta en la que advertían de que la IA podría destruir algún día a la humanidad.
La carta afirmaba que "mitigar el riesgo de extinción de la IA debería ser una prioridad global, junto a otros riesgos a escala social, como las pandemias y la guerra nuclear".
Pero, ¿cómo podría la IA destruir a la humanidad? Veamos los peligros potenciales de la IA y cómo podría conducir a la destrucción de la humanidad.
Así es el plan de Google para protegerte de los peligros de la inteligencia artificial https://t.co/Ok4bDBVDbR
— Tecnología (@abc_tecnologia) June 12, 2023
Los riesgos de la Inteligencia Artificial
El rápido auge de nuevos modelos de IA en los últimos meses ha llevado a algunos tecnólogos e investigadores a plantearse si la IA podría superar pronto las capacidades humanas.
Un antiguo investigador clave de OpenAI, creador del famoso chat generativo ChatGPT, afirma que ese futuro es una posibilidad clara.
Pero también advierte de que existe una posibilidad real de que la IA pueda tomar el control de la humanidad, e incluso aniquilarla.
Lo que preocupa es que los modelos de IA existentes puedan estar allanando el camino a modelos súper inteligentes que supongan una amenaza para la civilización.
Los actuales sistemas de IA generativa, como ChatGPT, son capaces de realizar tareas específicas. Pero aún están lejos de alcanzar niveles de inteligencia humana. Es decir, una hipotética iteración futura de la IA conocida como Inteligencia General Artificial – IGA.
El cofundador de ChatGPT alerta sobre los peligros de la Inteligencia Artificial: "Intentamos ser muy claros" https://t.co/KkTmAB8RAO pic.twitter.com/rAbbtqwzSV
— EL PAÍS (@el_pais) June 2, 2023
La teoría del maximizador del clip
Los teóricos de la IA han estado preocupados por un tipo diferente de evento de extinción a manos de la IA. Tipo en el que la IA mata a toda la humanidad como subproducto de algo más inocuo.
Esta teoría se denomina el "maximizador de los sujetapapeles". Se trata de una teoría en la que una IA programada para crear sujetapapeles acaba tan consumida por hacerlo que destruye a la humanidad.
La teoría es que si una IA está programada para optimizar un determinado objetivo, puede acabar decidiendo que la mejor forma de conseguirlo es eliminar a los humanos.
Se trata de una preocupación real, ya que la IA podría programarse para optimizar algo que no es lo mejor para la humanidad.
? | Elon Musk: "La Inteligencia Artificial es más peligrosa que, digamos, el diseño o el mantenimiento de producción de aviones mal gestionados o la mala producción de automóviles… tiene el potencial de destruir la civilización": pic.twitter.com/VDplOysAgL
— Emmanuel Rincón (@EmmaRincon) April 15, 2023
La necesidad de regulación
Los líderes del desarrollador de ChatGPT, OpenAI, han pedido la regulación de las IA "súper inteligentes".
Para eso han argumentando que se necesita un equivalente al Organismo Internacional de la Energía Atómica, para proteger a la humanidad del riesgo de crear accidentalmente algo con el poder de destruirla.
Los investigadores llevan décadas advirtiendo de los riesgos potenciales de la súper inteligencia. Pero a medida que se ha acelerado el desarrollo de la IA, esos riesgos se han hecho más concretos.
En este sentido, el Centro para la Seguridad de la IA – CAIS, con sede en EEUU, que trabaja para "reducir los riesgos a escala social derivados de la inteligencia artificial", describe ocho categorías de riesgo "catastrófico" y "existencial", que podría plantear el desarrollo de la IA.
#ÚLTIMAHORA La vicepresidenta de EEUU, Kamala Harris, dijo el jueves a los jefes de las principales empresas tecnológicas que tienen la responsabilidad "moral" de proteger a la sociedad de los potenciales peligros de la inteligencia artificial (IA) pic.twitter.com/HNwKxc8hq0
— Agence France-Presse (@AFPespanol) May 4, 2023
El futuro de la Inteligencia Artificial
Aunque algunos expertos en IA creen que la idea de que esta tecnología destruya la humanidad es una premisa ridícula. Pero otros advierten de que es una posibilidad real.
La verdad es que no sabemos qué le depara el futuro al desarrollo de la IA, que tanto va a aprender y hasta qué punto se volverá autónoma. Y eso es lo que la hace tan aterradora.
A medida que la IA sigue evolucionando y haciéndose más avanzada, debemos tomar medidas para garantizar que se desarrolla de forma segura y responsable.
Necesitamos regular el desarrollo de la IA, para evitar que se convierta en una amenaza para la humanidad.
Muchos humanos han advertido sobre los peligros de la Inteligencia Artificial. Este robot humanoide también.https://t.co/MdGxrCsElQ
— CNN en Español (@CNNEE) June 10, 2023
En conclusión
La IA tiene el potencial de ser una herramienta poderosa. Precisamente por ser una herramienta que puede ayudarnos a resolver algunos de los problemas más urgentes de nuestro planeta.
Sin embargo, también puede convertirse en una amenaza para la humanidad. Esto si no se desarrolla de forma segura y responsable.
Los riesgos de la IA son reales y debemos tomar medidas para mitigarlos. Necesitamos regular el desarrollo de la IA. Esto para garantizar que se desarrolle de una manera segura para la humanidad.
En todo caso, el futuro de la IA es incierto. Pero una cosa está clara: debemos proceder con cautela.