La inteligencia artificial ha trascendido su fase experimental y se ha convertido en una herramienta común para miles de usuarios en todo el mundo. Desde redactar correos hasta resolver dudas legales y médicas, ChatGPT de OpenAI se ha instalado de manera profunda en la vida digital cotidiana. Sin embargo, su creciente uso para tratar temas sensibles ha desatado una advertencia clave por parte de su CEO, Sam Altman.
El 23 de julio, Altman participó en el pódcast This Past Weekend, donde hizo un llamado a la prudencia, señalando un riesgo poco conocido pero potencialmente grave: la falta de protección confidencial en las interacciones con ChatGPT. En sus declaraciones, el directivo explicó que, a pesar de la percepción de seguridad y privacidad que muchos usuarios tienen al consultar el sistema sobre cuestiones jurídicas, terapéuticas y médicas, estas interacciones no están cubiertas por el privilegio de secreto profesional.
La ley establece que médicos, abogados y psicólogos tienen la obligación de proteger la privacidad de sus pacientes y clientes, evitando que dicha información sea utilizada en procesos judiciales sin consentimiento expreso. Sin embargo, las conversaciones con ChatGPT no gozan de ninguna protección legal similar, lo que significa que cualquier dato sensible proporcionado por un usuario podría ser requerido y usado como prueba en procedimientos legales.
Altman explicó que, en un escenario judicial, OpenAI podría verse obligada a entregar transcripciones de las conversaciones si son solicitadas por las autoridades, exponiendo así la información privada de los usuarios. La falta de normativas claras sobre el manejo de datos en plataformas de inteligencia artificial hace que este vacío legal sea aún más preocupante.
“Es deseable que los mismos principios de privacidad que existen en la atención profesional se apliquen a la inteligencia artificial”, expresó Altman. No obstante, reconoció que aún no existen mecanismos legales que aseguren esa protección en el entorno digital. Si bien la empresa ha tenido conversaciones con responsables políticos sobre el tema, no se han logrado avances significativos en la implementación de leyes que cubran esta nueva realidad tecnológica.
La advertencia de Altman llega en un momento en el que ChatGPT se utiliza cada vez más en situaciones personales y profesionales delicadas. La facilidad con la que los usuarios interactúan con el sistema, a menudo sin comprender plenamente las implicaciones legales, aumenta los riesgos de exposición.
Con el crecimiento exponencial de la plataforma y su adopción generalizada, la urgencia por establecer un marco normativo claro y efectivo se hace cada vez más evidente. Especialistas en privacidad digital recomiendan a los usuarios ser cautelosos al compartir información sensible con sistemas de IA hasta que se logren avances legales para proteger esos datos.
Altman no busca frenar el uso de la inteligencia artificial, sino subrayar la necesidad de adaptar las leyes a los tiempos modernos. En un mundo donde la privacidad es un derecho fundamental, aún queda un largo camino por recorrer para blindar a los usuarios frente a las nuevas amenazas que surgen con la adopción masiva de tecnologías emergentes.
