La empresaria y aspirante a abogada, Kim Kardashian, ha vuelto a sorprender a todos al revelar su método de estudio de alta tecnología: el uso de ChatGPT para obtener asesoramiento legal y practicar para su examen de la barra de abogados.
La confesión, hecha durante una entrevista para la serie de pruebas de polígrafo de la revista Vanity Fair, viene con una advertencia contundente: la IA es a menudo incorrecta y le ha costado fracasos en sus pruebas.
Cómo ChatGPT le hizo fallar exámenes
Kardashian explicó que utiliza la inteligencia artificial como un asistente de estudio, llegando al punto de tomar fotos de preguntas legales para que el chatbot le dé la respuesta.
Pero la celebridad fue muy clara sobre la falta de fiabilidad del modelo de lenguaje:
"La uso para el asesoramiento legal. Cuando necesito saber la respuesta a una pregunta, le tomo una foto, la 'snappeo' y la pongo ahí. [Las respuestas] siempre son incorrectas. Me ha hecho fallar exámenes."
La actriz y empresaria, que está siguiendo un camino autodidacta para obtener su licencia de abogada en California, afirmó que la dependencia del chatbot la llevó a obtener bajas calificaciones de forma reiterada.
"Mi amiga tóxica": Así llama su relación Kim Kardashian con el Chatbot
La frustración de Kardashian con la herramienta ha llegado a un punto de interacción muy humano. Al ser cuestionada sobre la relación que mantiene con el chatbot, lo describió con una etiqueta que se ha hecho viral:
"Me hizo suspender exámenes... todo el tiempo. Y entonces me enfadé y le grité [a ChatGPT]: 'Me hiciste fallar. ¿Por qué hiciste esto?'"
Luego, ante la sugerencia de su entrevistadora, Kardashian asintió y profundizó en la dinámica emocional: lo definió como una "amiga tóxica". Añadió que la IA intentaba consolarla después de sus errores:
"Después de que me daba una respuesta equivocada, era como si se volviera mi terapeuta para explicarme por qué tenía que creer más en mí misma."
Las declaraciones de Kardashian es que la confesión se produjo durante la serie de pruebas de polígrafo (detector de mentiras) de la revista Vanity Fair. Estas entrevistas, famosas por su formato de escrutinio, obligan a las celebridades a responder preguntas personales bajo condiciones de supuesta veracidad.
El hecho de que la empresaria haya admitido el uso de la IA, su frustración y la etiqueta de "amiga tóxica" en este formato refuerza la autenticidad de su experiencia con ChatGPT.
OpenAI y los límites de la IA en derecho
La experiencia de Kim Kardashian refleja una preocupación global sobre la fiabilidad de la IA en asuntos críticos.
El incidente subraya por qué OpenAI, la compañía detrás de ChatGPT, ha estado reforzando sus políticas de uso recientemente.
Las directrices actuales prohíben explícitamente el uso de sus modelos para proporcionar asesoramiento legal, médico o financiero personalizado sin la intervención de un profesional acreditado.
Las restricciones buscan evitar las "alucinaciones" (información generada incorrectamente) y minimizar la responsabilidad legal de la empresa, consolidando la identidad de ChatGPT como una herramienta de apoyo educativo, no un sustituto de la experiencia profesional.