En una reciente publicación, dos de los líderes mundiales en Inteligencia Artificial (IA) Yoshua Bengio y Charlotte Stix, muestran al mundo sus preocupaciones sobre el rumbo que ha venido tomando el auge de la IA. Y les asiste razón.
En los últimos años, la inteligencia artificial ha sido el tema de conversación más destacado. Cada nuevo modelo de IA revela innovaciones sorprendentes que rivalizan con la versión lanzada apenas unas semanas antes. Expertos, desarrolladores y directores ejecutivos de empresas de IA hacen afirmaciones espectaculares sobre las trayectorias futuras, desde la eliminación del trabajo arduo y el aumento de la longevidad humana hasta las posibles amenazas existenciales para la humanidad.
A decir de Bengio y Stix, si todo el mundo habla de IA, se debe en parte a que la difusión de estas innovaciones ha generado ingresos exponencialmente crecientes para las empresas que desarrollan dichos modelos. Pero a medida que la IA se vuelve más rápida, más capaz y más compleja, esa conversación pública podría trasladarse rápidamente a un asunto privado. Las empresas de IA están implementando cada vez más modelos de IA dentro de sus propias organizaciones, y es probable que pronto consideren estratégicamente esencial reservar sus futuros modelos más potentes para uso interno. Sin embargo, estas decisiones aparentemente inocuas podrían representar una grave amenaza para la sociedad en general.
La principal preocupación de estos científicos radica en el hecho de que los sistemas actuales de IA ya se comportan con frecuencia de formas inesperadas, imprevistas e indeseables en contextos simulados experimentalmente, por ejemplo, amenazando con chantajear a los usuarios, fingiendo alineamiento o mostrando un comportamiento de autopreservación. Sin embargo, si los principales desarrolladores comenzaran a guardarse sus secretos para sí mismos, la sociedad ya no tendría una ventana, ni siquiera una estrecha, para aprender públicamente y evaluar las ventajas y desventajas, los perfiles de riesgo y seguridad, y la trayectoria de esta tecnología fundamental. Una vez que los futuros sistemas avanzados de IA se implementen y utilicen, y tal vez exclusivamente, a puerta cerrada, podrían surgir peligros invisibles para la sociedad y evolucionar sin supervisión ni disparos de advertencia; esa es una amenaza que podemos y debemos evitar.
Si no exigimos a las empresas tecnológicas que proporcionen información suficientemente detallada sobre cómo prueban, controlan y utilizan internamente los nuevos modelos de IA, los gobiernos no podrán prepararse para sistemas de IA que, con el tiempo, podrían tener capacidades de Estado-nación. Mientras tanto, las amenazas que se desarrollan a puerta cerrada podrían extenderse a la sociedad sin previo aviso ni capacidad de intervención. Sin duda, ya hoy en día no podemos confiar en que los sistemas de IA actuales se comporten de forma fiable según lo previsto, ya sea que se implementen externa o internamente. Aún estamos a tiempo de actuar.