Negocios

Las aseguradoras se retiran de la cobertura de IA ante el aumento del riesgo de reclamaciones multimillonarias

Firmas como AIG y Great American solicitaron a reguladores su autorización para ofrecer pólizas que excluyan esta tecnología por el temor a demandas millonarias

AIG, Great American y WR Berkley solicitan autorización para limitar la responsabilidad de agentes de IA y chatbots

Las principales aseguradoras buscan excluir los riesgos de la inteligencia artificial de las pólizas corporativas, ya que las empresas se enfrentan a reclamaciones multimillonarias que podrían surgir debido a esta tecnología en rápido desarrollo.

AIG, Great American y WR Berkley se encuentran entre los grupos que recientemente solicitaron a reguladores de EU autorización para ofrecer pólizas que excluyan las responsabilidades vinculadas a las empresas que implementan herramientas de inteligencia artificial, como chatbots y agentes.

La renuencia del sector de seguros a ofrecer una cobertura integral se debe a que las empresas se apresuraron a adoptar esta tecnología de vanguardia. Esto ya llegó a provocar errores vergonzosos y costosos cuando los modelos “alucinan” o inventan cosas.

Una exclusión propuesta por WR Berkley prohibiría las reclamaciones que involucren “cualquier uso real o supuesto” de IA, incluyendo cualquier producto o servicio vendido por una empresa que “incorpore” la tecnología.

En respuesta a una solicitud del regulador de seguros de Illinois sobre las exclusiones, AIG declaró en una presentación que la IA generativa es una “tecnología de amplio alcance” y que la posibilidad de que eventos que conduzcan a futuras reclamaciones “probablemente aumentará con el tiempo”.

AIG declaró al Financial Times que, si bien presentó exclusiones para la IA generativa, “no tiene planes de implementarlas por el momento”. La aprobación de las exclusiones le daría a la compañía la opción de implementarlas posteriormente.

WR Berkley y Great American no quisieron hacer comentarios.

Las aseguradoras consideran cada vez más que los resultados de los modelos de inteligencia artificial son demasiado impredecibles y opacos para asegurarlos, dijo Dennis Bertram, director de seguros cibernéticos para Europa en Mosaic. “Es demasiado complejo y difícil de entender”.

Incluso Mosaic, una aseguradora especializada del mercado de Lloyd's of London que ofrece cobertura para algunos programas informáticos mejorados con IA, se ha negado a suscribir riesgos de modelos de lenguaje de gran tamaño como ChatGPT.

“Nadie sabe quién es responsable si algo sale mal”, dijo Rajiv Dattani, cofundador de Artificial Intelligence Underwriting Company, una startup de seguros y auditoría con IA.

Estas medidas se producen en medio de un número cada vez mayor de errores de alto perfil provocados por la inteligencia artificial. Wolf River Electric, una empresa de energía solar, demandó a Google por difamación y solicitó una indemnización de al menos 110 millones de dólares, después de alegar que su función AI Overview (Resumen de IA) indicaba falsamente que la compañía estaba siendo demandada por el fiscal general de Minnesota.

Mientras tanto, un tribunal ordenó el año pasado a Air Canada que respetara un descuento que inventó su chatbot de atención al cliente.

El año pasado, el grupo de ingeniería del Reino Unido Arup perdió 200 millones de dólares de Hong Kong (25 millones de dólares) después de que unos estafadores utilizaron una versión clonada digitalmente de un alto directivo para ordenar transferencias financieras durante una videoconferencia.

Kevin Kalinich, director de ciberseguridad de Aon, dijo que el sector de seguros puede costear el pagar una pérdida de 400 o 500 millones de dólares a una compañía que implementó inteligencia artificial con agentes que generó precios o diagnósticos médicos incorrectos.

“Lo que no pueden darse el lujo es que un proveedor de IA cometa un error que resulte en mil o 10 mil pérdidas: un riesgo sistémico, correlacionado y acumulado”, añadió.

Las alucinaciones en las que incurre la inteligencia artificial suelen quedar fuera de la cobertura cibernética estándar, que se desencadena por violaciones de seguridad o privacidad. Las denominadas pólizas de “errores y omisiones” tecnológicas tienen más probabilidades de cubrir los errores de IA, pero las nuevas exclusiones podrían limitar el alcance de la cobertura que se ofrece.

Ericson Chan, director de información de Zurich Insurance, dijo que cuando las aseguradoras evaluaron otros errores tecnológicos, pudieron identificar fácilmente la responsabilidad. En cambio, el riesgo de la inteligencia artificial puede involucrar a muchas partes diferentes, incluyendo desarrolladores, creadores de modelos y usuarios finales. Como resultado, el impacto potencial en el mercado de los riesgos impulsados por la IA “podría ser exponencial”, dijo.

Algunas compañías de seguros tomaron medidas para aclarar la incertidumbre legal con las llamadas “garantías” -modificaciones a las pólizas- sobre el riesgo relacionado con la inteligencia artificial. Sin embargo, los corredores advierten que estas medidas requieren un análisis minucioso, ya que, en ciertos casos, tienen como resultado una menor cobertura.

Una garantía de la aseguradora QBE amplió la cobertura de multas y otras sanciones bajo la Ley de Inteligencia artificial de la Unión Europea, considerada el régimen más estricto del mundo para regular el desarrollo de esta tecnología.

Sin embargo, esta garantía, que desde entonces otras aseguradoras empezaron a imitar, limitó el pago de multas derivadas del uso de inteligencia artificial al 2.5 por ciento del límite total de la póliza, de acuerdo con un importante corredor.

QBE declaró al Financial Times que están “abordando la posible brecha (en el riesgo relacionado con la IA) que podría no estar cubierta por otras pólizas de seguro”.

En las negociaciones con los corredores, Chubb, con sede en Zúrich, acordó términos que cubrirían algunos riesgos de inteligencia artificial, pero excluyó incidentes de IA “generalizados”, como un problema con un modelo que afectaría a muchos clientes a la vez. Chubb no quiso hacer comentarios.

Mientras tanto, otros ya introdujeron complementos que cubren riesgos de inteligencia artificial que están estrictamente definidos; por ejemplo, un chatbot que se descontrola.

Corredores de seguros y abogados manifestaron su temor de que las aseguradoras inicien demandas judiciales cuando las pérdidas provocadas por la inteligencia artificial aumenten significativamente.

Aaron Le Marquer, jefe del equipo de disputas de seguros del bufete Stewarts, dijo: “Probablemente se necesite un gran evento sistémico para que las aseguradoras digan: ‘Un momento, nunca tuvimos intención de cubrir este tipo de incidente’”.


Google news logo
Síguenos en
Lee Harris
  • Lee Harris
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
@The Financial Times Limited 2025. Todos los derechos reservados . La traducción de este texto es responsabilidad de Milenio Diario.

Más notas en: https://www.ft.com