Brecha de seguridad del chatbot de IA filtró información personal y bancaria de los usuarios de pago
OpenAI, empresa detrás de ChatGPT, confirmó que la primera brecha de seguridad de su chatbot comprometió los datos privados de sus usuarios.
ChatGPT, el modelo de lenguaje por la inteligencia artificial GPT-3 de OpenAI, reportó su primera brecha de seguridad el pasado 22 de marzo y si bien Sam Altman -CEO de la compañía- informó sobre este problema de inmediato sin brindar demasiados detalles, ahora la empresa se ha encargado de dar más datos respecto al alcance de la vulnerabilidad y las consecuencias que habría tenido para sus usuarios.
En un inicio, OpenAI señaló que la brecha permitía que un reducido grupo de personas pudiera ver los títulos del historial de conversaciones de otros, pero realmente este fallo en el sistema también habría expuesto datos personales de dichos usuarios, siendo los más delicados la información bancaria de los que aportan al plan de pago para obtener más beneficios de la plataforma.
unfortunately, users will not be able to access their chat history from monday 1 am PDT until monday 10 am PDT.
we will follow up with a technical postmortem.
— Sam Altman (@sama) March 22, 2023
La brecha de ChatGPT fue más grave de lo que se pensó
OpenAI mencionó el pasado 20 de marzo que había cerrado momentáneamente los servidores de ChatGPT para poder reparar un bug que existía en la librería de código abierto, el cual permitía a algunos usuarios leer los títulos del historial de otros. No obstante, ahora la firma brindó más detalles sobre todos los datos que fueron expuestos, los cuales resultaron ser muchos más de los que se pensaron inicialmente.
“En las horas anteriores a cerrar ChatGPT el lunes, era posible para algunos usuarios ver el nombre y apellido, la dirección de correo electrónico, datos de pago y los últimos cuatro dígitos (solo) del número de la tarjeta, así como la fecha de caducidad de otros usuarios”, dijo OpenAI en su comunicado, aclarando que “en ningún momento se han expuesto los números al completo de la tarjeta”.
La franja de tiempo que la compañía señala en su declaración se refiere a las nueve horas en las que la información de los usuarios estuvo expuesta.
We believe the number of users whose data was actually revealed to someone else is extremely low and we have contacted those who might be impacted. We take this very seriously and are sharing details of our investigation and plan here. 2/2 https://t.co/JwjfbcHr3g
— OpenAI (@OpenAI) March 24, 2023
OpenAI respondió con rapidez a la crisis de ChatGPT
Según la investigación de la compañía, la brecha de seguridad de ChatGPT habría afectado a un 1,2% de los usuarios del plan de pago Plus con la revelación de sus datos personales a otros usuarios. Estas personas afectadas ya han sido contactadas por OpenAI. No obstante, la empresa señala que es muy poco probable que otros usuarios vieran la información privada ya que tendrían que haber realizado actividades tan específicas como abrir el correo de confirmación ChatGPT Plus o ingresar a “Administrar mi suscripción” en la plataforma entre la 1:00 a.m. y 10:00 a.m. de la franja horaria del Pacífico del lunes 20 de marzo.
OpenAI asegura que la brecha de seguridad ya fue solucionada y ChatGPT vuelve a estar totalmente operativo, con el historial de los chats restaurado y sin problema alguno. La empresa señala que verificó su solución al error, incorporó verificaciones a la solicitud de datos de los usuarios y mejoró la solidez de su infraestructura para contar con una mejor seguridad en la plataforma.