Teoría dice que ChatGPT es tan humano que se volvió ‘flojo’ porque se acercan las vacaciones
No queda nada para las fiestas de fin de año y con ello la llegada de las vacaciones, tanto de invierno en el hemisferio norte como de verano en esta parte del mundo. Y sí… OpenAI confirmó que su chatbot está más ‘perezoso’.
ChatGPT se está poniendo flojo. Así lo advierten desde hace algún tiempo distintos usuarios, quienes señalan que el chatbot ya no es lo que solía ser. ¡Y tienen razón!
OpenAI, que desarrolló ChatGPT en 2022, confirmó la semana pasada que GPT4, uno de los sistemas que impulsa a su chatbot de inteligencia artificial, se ha vuelto más “perezoso”, explicando el por qué.
we’ve heard all your feedback about GPT4 getting lazier! we haven’t updated the model since Nov 11th, and this certainly isn’t intentional. model behavior can be unpredictable, and we’re looking into fixing it 🫡
— ChatGPT (@ChatGPTapp) December 8, 2023
“Hemos escuchado todos sus comentarios acerca de que GPT4 se está volviendo más perezoso. No hemos actualizado el modelo desde el 11 de noviembre y ciertamente esto no es intencional. El comportamiento del modelo puede ser impredecible y estamos buscando solucionarlo”, expuso el pasado viernes la cuenta de X de ChatGPT.
Las críticas de los usuarios no sólo apuntan a que el bot se ha vuelto más holgazán. También afirman que está menos creativo, menos dispuesto a seguir instrucciones y menos capaz de permanecer en cualquier función.
Incluso, informes sobre los nuevos problemas de personalidad del bot, exponen una actitud “atrevida”. El sitio Semafor reveló que el fundador de una startup le pidió enumerar los días de la semana hasta el 5 de mayo, pero la respuesta de ChatGPT fue que no podía realizar una “lista exhaustiva”.
¿Está ChatGPT esperando sus vacaciones?
Más allá de su versión entregada, OpenAI no tiene claridad sobre por qué el bot se puso flojo, dando pie para que los usuarios se aventuren en un sinnúmero de teorías al respecto.
Algunos bromean con que el robot podría estar sufriendo algún tipo de depresión durante los meses de invierno boreal. Sin embargo, otra apunta a que el bot podría haber “aprendido” a hacer menos trabajo en esta época, a medida que se acercan las vacaciones (de invierno en el hemisferio norte). Esta última versión incluso recibió cierto apoyo de un desarrollador.
Rob Lynch comentó en X que una prueba que realizó en GPT4 Turbo encontró respuestas más cortas cuando el modelo se alimenta con una fecha de diciembre, versus cuando se alimenta con una fecha de mayo. Lynch animó a otros usuarios a ver si podían reproducir la prueba.
@ChatGPTapp @OpenAI @tszzl @emollick @voooooogel Wild result. gpt-4-turbo over the API produces (statistically significant) shorter completions when it «thinks» its December vs. when it thinks its May (as determined by the date in the system prompt).
I took the same exact prompt… pic.twitter.com/mA7sqZUA0r
— Rob Lynch (@RobLynch99) December 11, 2023
Otro investigador de IA, Ian Arawjo, expuso por su parte que la prueba tenía fallas fundamentales y que los resultados no pueden reproducirse.
“No, ChatGPT no tiene trastorno afectivo estacional”, aseguró en la red social.
Final update: I upped N=400 to near the original post. Things just got even more non-normal –and nothing is significant. In fact, comparing means of response lengths, Dec is actually *longer* than May! So even if there was significance, it’s in the wrong dir. I rest my case! 🫡 https://t.co/NfGMl2EZsp
— Ian Arawjo (@ianarawjo@hci.social) (@IanArawjo) December 13, 2023