¿Qué pasó realmente con las IA que Facebook desconectó porque ‘inventaron su propio idioma’?
En 2017, Bob y Alice fueron 2 IA que alarmaron al mundo porque, supuestamente, se comunicaban en su propio idioma y Facebook tuvo que desconectarlas. ¿Qué tan cierto fue eso?
A finales del 2022, la compañía estadounidense Open AI liberó ChatGPT, una inteligencia artificial que no solo es capaz de responder preguntas sencillas, también es capaz de elaborar textos más complejos como resúmenes de libros, cuentos y historias originales, guiones para películas, etc. Aunque mucha gente piensan que esta IA fue la primera en existir, lo cierto es que llevan varios años entre nosotros.
Quizás no lo recuerdes, pero en 2017, en las redes sociales se hizo tendencia una noticia bastante alarmante relacionada con las inteligencias artificiales. Supuestamente, la empresa norteamericana Facebook (ahora conocida como Meta) había desarrollado dos ‘IA’ llamadas ‘Bob’ y ‘Alice’, las cuáles fueron desconectadas, debido a que crearon su propio idioma. ¿Qué tanto de esto es real?
¿Qué se dijo de Alice y Bob en su momento?
Si buscamos información sobre Bob y Alice en Google, hallaremos muchos artículos alarmistas (publicados en 2017) que aseguran que las 2 inteligencias artificiales se ‘salieron de control’. En un principio, ambas IA tenían se comunicaban en inglés; sin embargo, conforme avanzó el experimento, empezaron a hablar empleando un lenguaje totalmente desconocido para los investigadores de Facebook.
En los artículos de ese entonces (las cuáles eran publicitados con imágenes de Terminator y otros robots ‘malvados’ de la cultura popular) se nos revela que la empresa fundada por Mark Zuckerberg decidió desconectar a Bob y Alice, debido a que su pensaban que su lenguaje secreto e incomprensible era una táctica para impedir que los seres humanos sepan lo que en realidad estaban conversando.
¿Qué sucedió realmente con Bob y Alice?
Aunque algunos elementos de la historia resultaron ser ciertos, otros fueron totalmente exagerados e incluso inventados. Es decir, lo que realmente pasó con Bob y Alice no fue tan sorprendente a como muchos medios digitales reportaron en su momento. En realidad, eran dos chatbots, unas inteligencias artificiales que fueron desarrolladas por Facebook para comunicarse a través de texto.
Actualmente, los chatbots son muy populares, ya que muchas empresas los utilizan para interactuar con sus clientes y poder responderle preguntas que no necesiten de una persona real. En Perú, por ejemplo, alguna empresas como Movistar los utiliza en su centro de atención al cliente, es esa voz robótica que escuchas al llamar al 104 para cuando quieres reportar alguna falla o poner una queja.
Volviendo al tema de Alice y Bob, estos chatbots fueron parte de un experimento realizado por el Grupo de Investigación de Inteligencia Artificial (FAIR por sus siglas en inglés). Según detalla La Razón de España, el objetivo era descubrir si ambas IA podían negociar y esto se cumplió, al menos al inicio, ya que lograron que logren hacer tratos como intercambiar libros, sombreros, pelotas, entre otros artículos.
Todo iba bien durante el experimento; sin embargo, los investigadores del FAIR notaron que habían cometido un gran error que arruinó el experimento. Cuando programaron a Alice y Bob, se olvidaron haber incluido una norma que los obligara a respetar las reglas del idioma inglés. Por ese motivo, es que ambos chatbots comenzaron un diálogo aparentemente sin sentido. ¿Por qué lo hicieron?
De acuerdo a la publicación, las IA eran recompensadas si lograban negociar de manera eficiente. Para acelerar este proceso, ambos chatbots empezaron a comunicarse con este lenguaje incomprensible y así obtener más puntos rápidamente. Finalmente, se decidió poner en pausa el experimento con el objetivo de afinar las reglas que debían seguir ambas inteligencias artificiales.
«Este comportamiento no es alarmante, sino un subcampo bien establecido de la IA, con publicaciones que se remontan a décadas. En pocas palabras, los agentes en entornos que intentan resolver una tarea a menudo encontrarán formas poco intuitivas de maximizar una recompensa. Analizar la función de recompensa y cambiar los parámetros de un experimento no es lo mismo que desconectar o apagar la IA», señaló Dhruv Batra, miembro de FAIR,