Escándalo en Samsung: chatbot habría recibido datos confidenciales filtrados por empleados
Un nuevo reporte señala que uno de los empleados de Samsung pidió a ChatGPT que generara notas a partir de una reunión grabada.
Empleados de Samsung filtran información confidencial a ChatGPT, revela reporte
Un reciente reporte indica que empleados de Samsung filtraron información confidencial de la empresa a ChatGPT, chatbot de OpenAI, sin tener en cuenta que esta podría ser utilizada para entrenar el sistema o mostrada en respuestas a otros usuarios. La empresa habría intentado limitar el alcance de futuros errores restringiendo la longitud de las solicitudes de ChatGPT y está investigando a los empleados involucrados. Este es un ejemplo más de por qué es importante ser precavido al utilizar chatbots y tener en cuenta las políticas de datos de cada plataforma.
ChatGPT y la confidencialidad de las empresas: el delicado equilibrio
El uso de chatbots como ChatGPT puede resultar sumamente útil para una amplia variedad de tareas, pero también puede representar un riesgo para la confidencialidad de las empresas. En el caso de Samsung, varios empleados filtraron información secreta a ChatGPT, sin saber que esta podría ser utilizada para entrenar su sistema. La empresa ha intentado limitar futuros errores y está investigando a los empleados involucrados.
¿Cómo protegerse al utilizar chatbots como ChatGPT?
El caso de los empleados de Samsung y ChatGPT es un recordatorio de la importancia de ser precavido al utilizar chatbots y tener en cuenta las políticas de datos de cada plataforma. La política de datos de ChatGPT establece que, a menos que los usuarios lo excluyan explícitamente, el sistema puede utilizar sus mensajes para entrenar sus modelos de lenguaje. OpenAI, empresa dueña del chatbot, insta a los usuarios a no compartir información confidencial con ChatGPT en las conversaciones, ya que «no puede eliminar mensajes específicos del historial».