Tecnología

¿ChatGPT puede dar asesoramiento médico, legal y financiero? Esto dijo OpenAI en sus políticas de uso 2025

OpenAI aclaró en sus políticas de uso 2025 lo que ChatGPT puede hacer en el ambito médico, legal y financiero.

ChatGPT se ha consolidado como una de las herramientas de inteligencia artificial más avanzadas y populares, utilizada por millones para obtener información rápida sobre diversos temas. 

Sin embargo, muchos usuarios se han preguntado si ChatGPT podía ofrecer asesoramiento médico, legal o financiero sin riesgos, por tal motivo a continuación te revelamos qué establecen realmente las políticas de uso de OpenAI 2025 sobre estos temas. Aquí en MILENIIO  te lo explicamos con detalle.

ChatGPT. | Foto: The New York Times
ChatGPT. | Foto: The New York Times

¿ChatGPT puede dar asesoramiento médico, legal y financiero?

OpenAI explicó en sus políticas de uso que ChatGPT no debía ofrecer asesoramiento médico, legal ni financiero personalizado sin la intervención de un profesional con licencia. 

La actualización de octubre de 2025 reafirmó su compromiso con un uso seguro, transparente y responsable de la inteligencia artificial.

OpenAI sostuvo que su objetivo de actualizar sus políticas de uso había sido para que sus "herramientas se utilicen de forma segura y responsable, al tiempo que maximizamos su control sobre cómo utilizarlas”.

En el documento publicado, la empresa subrayó que no se permitía la “prestación de asesoramiento personalizado que requiera habilitación profesional, como asesoramiento jurídico o médico, sin la intervención adecuada de un profesional acreditado”.

La compañía también recordó que “la seguridad es lo primero en todo lo que hacemos. Supervisamos y aplicamos las políticas, con salvaguardas de privacidad y procesos de revisión claros”.

Estas medidas formaron parte de su estrategia de “uso responsable”, que exigía a los usuarios actuar con buena intención y dentro de los límites éticos y legales aplicables.

ChatGPT abrirá acceso erótico para usuarios adultos verificados
ChatGPT

¿Cuáles son los límites de ChatGPT en los ámbitos de salud, derecho y finanzas?

OpenAI amplió su lista de usos restringidos, incluyendo la “automatización de decisiones de alto riesgo en ámbitos sensibles sin revisión humana”, entre los que se encontraban “actividades financieras y crédito, seguros, ámbito jurídico y sanidad”.

El objetivo, según la política, fue evitar que la inteligencia artificial se utilizara para manipular, engañar o interferir en los derechos humanos o en servicios esenciales.

En otro fragmento, la empresa puntualizó que sus políticas “no sustituyen los requisitos legales, las obligaciones profesionales ni los principios éticos que deben orientar el uso de la IA”.

¿ChatGPT  ya no hablará sobre temas de salud, legal y financieros?

Las políticas de OpenAI no eliminaron la posibilidad de hablar sobre temas de salud, derecho o finanzas dentro de ChatGPT, pero sí establecieron límites claros para evitar el asesoramiento profesional sin supervisión humana.

El modelo puede ofrecer información educativa o general, pero las decisiones específicas deben quedar en manos de médicos, abogados o asesores financieros acreditados.

APC 

Google news logo
Síguenos en
Adriana Paez
  • Adriana Paez
  • Periodista de la Unidad de Tráfico en Milenio, donde cubre temas de Soft y Hard con enfoque en información viral, social y cultural. Antes colaboró en Telediario, en la sección Ciudad de México. Egresada de la Universidad Autónoma Metropolitana.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.