¿Imaginas ser espiado, mientras te diviertes con tu videojuego favorito? Esa posibilidad es, ahora, una realidad.
El Político
Activision, la empresa creadora de “Call of Duty: War Zone” y “Call of Duty: Modern Warfare II”, ha desarrollado una tecnología que supervisa y analiza las conversaciones en línea de quienes participan en los juegos.
La herramienta, bautizada como ToxMod, tiene la capacidad de escanear y discriminar textos y chats de voz. La finalidad, ha dicho la compañía, es la de buscar e identificar términos que puedan estar asociados a discursos de odio o lenguaje discriminatorio.
ToxMod, cuyo uso empezó a hacerse efectivo hace una semana, fue creada en sociedad con la firma Modulate.
Tanto Activision como esa compañía aprovecharon la inteligencia artificial (IA) de la que se dispone hoy en día para “cazar” a jugadores que pueden llegar a exhibir un discurso inapropiado.
Los reportes indican que, desde que empezó a utilizarse la herramienta, el equipo “anti toxicidad” de “Call of Duty” ha restringido los chat de más de un millón de cuentas.
Los infractores, explicaron desde la empresa creadora de videojuegos, recibieron una advertencia inicial, antes de la penalización final.
Navaja de doble filo
Aunque su uso aparenta ser bienintencionado, ToxMod podría terminar siendo una navaja de doble filo.
Expertos afirman que la herramienta tiene la capacidad de escuchar o leer conversaciones.
Gracias a esa “habilidad”, ToxMod podría ser empleada como instrumento para el espionaje.
Otros detractores aseguran que, mediante el empleo de la inteligencia artificial para escanear y analizar intercambios textuales o mediante audios, las empresas avanzan hacia un mundo de censura.
Afirmaciones de ese tipo se ven reforzadas cuando compañías como OpenAI, la creadora del popular ChatGPT, publican guías que explican, paso a paso, cómo echar mano de la inteligencia artificial para bloquear o eliminar determinados contenidos.
Durante el mes de agosto, OpenAI divulgó un manual que instruye a sus lectores sobre cómo alimentar ChatGPT con “normas” que describan, de forma específica, cuál tema es aceptable y cuál debe ser suprimido.
Una vez que el usuario ha realizado tal programación, OpenAi sugiere usar ejemplos para hacer una corrida de validación y ajustar las indicaciones en caso de que sea necesario.