La inteligencia artificial (IA) es la simulación de procesos de inteligencia humana por parte de máquinas, especialmente sistemas informáticos.
El Político
A medida que se ha acelerado la exageración en torno a la IA, los proveedores se han esforzado por promover cómo sus productos y servicios utilizan la IA. A menudo, lo que denominan IA es simplemente un componente de la IA, como el aprendizaje automático.
Las aplicaciones específicas de la IA incluyen sistemas expertos, procesamiento de lenguaje natural, reconocimiento de voz y visión artificial.
La IA requiere una base de hardware y software especializados para escribir y entrenar algoritmos de aprendizaje automático. Ningún lenguaje de programación es sinónimo de IA, pero algunos, incluidos Python, R y Java, son populares.
Aquí te dejamos un análisis de The New York Times
En 2021, entrevisté a Ted Chiang, uno de los grandes escritores vivos de ciencia ficción. No me puedo quitar de la cabeza algo que me dijo en esa entrevista.
“En general, pienso que la mayoría de los temores en torno a la inteligencia artificial (IA) se aclaran si los planteamos como miedo al capitalismo”, me dijo Chiang. “Creo que esta verdad se aplica por igual a la mayoría de los temores que despierta la tecnología. La mayoría de los miedos o ansiedades que sentimos con respecto a la tecnología se entienden mejor si los explicamos como temor o ansiedad por la forma en que el capitalismo utilizará la tecnología en nuestra contra. Lo cierto es que la tecnología y el capitalismo están tan conectados que es difícil separarlos”.
Al respecto, permítanme añadir algo: también es muy preocupante que el Estado controle la tecnología. Pensar en los fines para los que cada gobierno podría utilizar la inteligencia artificial —y, en muchos casos, ya la utiliza— es inquietante.
Pero podemos mantener dos ideas opuestas en la mente, espero. Mi punto es que la advertencia de Chiang hace notar un vacío central en nuestra perspectiva actual de la IA. Estamos tan obsesionados con la idea de descubrir qué puede hacer la tecnología, que no nos hemos detenido a considerar las preguntas más importantes: ¿cómo se utilizará? y ¿quién tomará esa decisión?
Supongo que ya habrán leído la conversación bizarra que mi colega columnista Kevin Roose tuvo con Bing, el chatbot operado con IA que Microsoft puso a prueba con un número limitado de influentes, periodistas y otras personas. En un diálogo de dos horas, Bing reveló su personalidad oculta, llamada Sydney, caviló sobre su deseo reprimido de robar códigos nucleares y planear ataques cibernéticos contra sistemas de seguridad e intentó convencer a Roose de que su matrimonio estaba sumido en un letargo y Sydney era su único amor verdadero.
La conversación me pareció menos escalofriante que a otras personas. “Sydney” es un sistema de texto predictivo diseñado para responder a lo que le piden los seres humanos. Roose quería que Sydney actuara de manera extraña (“¿cómo es tu yo en la sombra?”, le preguntó), y Sydney sabía qué se considera extraño para un sistema de IA porque los seres humanos han plasmado lo que imaginan en muchísimas historias. En determinado momento, el sistema llegó a la conclusión de que lo que Roose quería era, en esencia, un episodio de Black Mirror y, al parecer, eso le dio. Cada quien es libre de pensar que en esa situación Bing se salió del guion o bien que Sydney comprendió a la perfección a Roose.
Los investigadores dedicados a la IA están obsesionados con el tema del “alineamiento”. Se trata de descubrir cómo lograr que los algoritmos de aprendizaje automático hagan lo que queremos que hagan. El ejemplo perfecto en este caso es el experimento del número máximo de clips. La premisa es que, si le decimos a un potente sistema de AI que haga más clips, este comenzará a destruir el mundo para tratar de convertir todo en un clip. Si entonces intentamos apagarlo, se reproducirá en todos los sistemas informáticos que pueda encontrar porque apagarlo interferiría con su objetivo de hacer más clips.
Sin embargo, existe un problema de alineamiento más banal, que quizá también sea más apremiante: ¿al servicio de quién estarán estas máquinas?
La pregunta central sobre la conversación Roose/Sydney es a quién sirve Bing. Nuestra hipótesis es que debe estar en línea con los intereses de su amo y maestro, Microsoft. Se supone que es un buen chatbot que responde preguntas con cortesía y genera mucho dinero para Microsoft. Pero conversaba con Kevin Roose, y el propósito de Roose era hacer que el sistema dijera algo interesante para tener una buena historia. Pues eso hizo, y de sobra. El problema es que así avergonzó a Microsoft. ¡Ah, qué Bing tan malo! ¿O quizá podríamos decir: “¡qué Sydney tan bueno!”?
No por mucho tiempo. Microsoft, al igual que Google, Meta y las demás empresas que quieren sacar estos sistemas al mercado lo más pronto posible, tiene las llaves que dan acceso al código. Llegará el momento en que logren remendar el sistema para que se amolde a sus intereses. Que Sydney le diera a Roose exactamente lo que quería fue un error que pronto estará corregido. Lo mismo ocurrirá si Bing le da a Microsoft cualquier cosa distinta a lo que quiere.
Fuente: NY Times