Las gigantes tecnológicas del presente y los expertos en Inteligencia Artificial tienen cada vez más temor sobre la criatura que desarrollan.
El Político
El avance de la Inteligencia Artificial – IA está revolucionando en entorno digital a tal punto, que las grandes compañías tecnológicas están compitiendo por acaparar y liderar a la IA propiamente dicha.
Y en esa carrera surgen inquietudes sobre los alcances de la IA. Pues la gran pregunta que comienza a rondar en los escenarios donde se desarrolla la IA es si ésta será confiable.
Otro tema que preocupa es que la tecnología no es ética. Sin embargo los humanos dependemos de la tecnología para nuestra convivencia en sociedad, pues vivimos en un mundo altamente tecnológico.
La calamitosa predicción de Bill Gates sobre los peligros de la inteligencia artificial: "Si los humanos pierden el control…" https://t.co/8lCdgsfjoE
— El Cronista (@Cronistacom) February 9, 2023
Entre líneas: ¿la tecnología
contra la humanidad?
En este sentido, el futurista alemán, Gerd Leonhard, autor de un libro cuyo título no deja lugar a dudas: ‘La tecnología contra la humanidad, el choque entre el hombre y la máquina’, ha dicho que: "hoy es el momento en que construimos nuestro futuro y este hoy es el mayor reto al que se ha enfrentado el género humano hasta el momento, la posibilidad de una especie de superhombre que se convierte en Dios no tiene precedentes".
Leonhard es optimista. Sin embargo, es partidario de que la relación que tenemos con la tecnología debe —al menos— pensarse.
Pero no es un alarmista. Pues al reflexionar dice: "creo que a veces reaccionamos de forma exagerada ante los posibles peligros de la IA. No podemos adentrarnos en el futuro con miedo. Debemos ser cautos, pero abiertos al progreso".
Peligros Inteligencia Artificial:¿Ignorancia o conveniencia de gobs? Meterse es tocar a grandes empresas tecnológicas (Dinamarca puso embajador en Silicon Valley y Beijing para tratar directamente con ellas).
Entrevista a experta en IA,Cecilia Danesi,en https://t.co/ZYYlkpfoG1 pic.twitter.com/WokLhIJ8UT— Rosario Moreno (@rmorenoconcha) February 5, 2023
Cabe destacar: no se pueden
ignorar las señales de advertencia
Para algunos analistas, hablar de una catástrofe desencadenada por la IA, podría ser como resultado de si los investigadores que desarrollan sistemas de IA ignoran las señales de advertencia y entrenan descuidadamente sistemas cada vez más potentes.
Pero utilizando los enfoques que funcionaron bien para sistemas débiles en etapa inicial. Pero que se desmoronan frente a un sistema de IA que es más sofisticado, persuasivo y potencialmente capaz de engañar a sus usuarios.
Uno de los razonamientos considerado lógico en el campo de la investigación tecnológica nos indica que —por lo general— la mayoría de los investigadores no son imprudentes y no quieren arriesgar el mundo.
Si su laboratorio está construyendo IA y comienzan a notar signos aterradores de desalineación, comportamiento engañoso, planificación avanzada, etc., se alarmarán y se detendrán.
Se dice además, que los investigadores más escépticos, si son capaces de percibir una alteración en las respuestas de la IA, si la notan en su laboratorio, querrán abordarla y resolverla, antes de sacar sistemas cada vez más sofisticados.
? Un diputado australiano utiliza el ChatGPT para escribir un discurso parlamentario sobre los peligros de la Inteligencia Artificial
«Ningún humano ha escrito esto: ha sido el modelo de gran lenguaje de IA ChatGPT»
✍ @mserranovicente
https://t.co/1TqolmIkwQ— El Debate (@eldebate_com) February 6, 2023
Lo que se dice: ojo con los
controles de seguridad
Otro elemento que preocupa es la competencia. Pues existe una carrera por desarrollar y controlar la mejor IA. Pero en su desarrollo, los competidores podrían disminuir los controles de seguridad. Lo que haría que se corra un riesgo que alguien más, con malas intenciones, llegue primero a un destino de liderazgo.
Por ejemplo, en los escenarios geopolíticos de la carrera armamentista de IA, el temor es que China llegue a la IA antes que EEUU, y tenga un arma increíblemente poderosa. Pero que —anticipándose a eso— EEUU pueda empujar sus propios sistemas no preparados a un despliegue generalizado.
En una carrera por conquistar la tecnología, la prisa por llegar primero a la cima podría ser una receta directa para el fracaso, para la catástrofe. Y en el caso de la IA podríamos peder todos.
Otro elemento que inquieta es que el marco legal y político estuviera preparado para controlar el uso de la IA. Esto no ha pasado, pues la tecnología está evolucionando muy rápido.
Así, la ciencia ficción que vemos en las películas, donde las máquinas controlan a los humanos, cada vez estaría más alejada de la ficción.