Digital Capital

Los temores de Hawking, más tangibles que nunca

Stephen Hawking, el afamado físico teórico británico, explicó recientemente el porqué de sus temores ante un eventual desarrollo tecnológico que pudiera desembocar en una Inteligencia Artificial (IA) que de plano se convierta en azote de la humanidad.

Fiel a su tendencia de sorprender con su coeficiente intelectual en instancias populares (hay que recordar que le encanta ser protagonista de series de televisión y hasta películas), Hawking participó en la serie Ask Me Anything (Pregunten lo que quieran), del sitio Reddit.

Ahí, ante preguntas realizadas por cualquiera que quisiera participar, Hawking dice que la humanidad estará "en peligro" si acaso surge una IA superinteligente que sus metas no correspondan con las nuestras.

Fiel a ilustrar sus conceptos en términos metafóricos y alegóricos con un pie en nuestra realidad, Hawking se refirió a una hipotética toma de decisión, planteada por un profesor, en la que el sentido común dictaría elegir el bien común sin casi pensar en las consecuencias.

"Probablemente tú no seas alguien que odia a las hormigas a la que pisas por maldad, pero si estás a cargo del proyecto de energía verde en una hidroeléctrica y hay un hormiguero en la región que vas a inundar... lástima por las hormigas", dijo el físico. "No hay que dejar a la humanidad en la posición de esas hormigas. Por favor, anima a tus estudiantes a pensar no solo en cómo crear una IA, sino en asegurarse que su empleo sea benéfico".

El director de Investigación del Centro de Cosmología Teórica de la Universidad de Cambridge, juega con los extremos al decir que por ahora es imposible saber si en esta vida alguien afirmará haber desarrollado una IA de un nivel similar o superior a la humana. "Cuando eso eventualmente ocurra, dijo, seguramente será lo mejor o lo peor que pudiera suceder a la humanidad, así que es muy conveniente que resulte bien", afirmó.

Asimismo, trazó el nivel que podría alcanzar una AI en caso de que pudiera ser más "inteligente" que su creador.

"Es posible que algo sea más inteligente que sus ancestros: nosotros evolucionamos para ser más inteligentes que nuestros ancestros prehomínidos y Einstein fue más inteligente que sus padres. El sentido en el que preguntas tiene que ver con que si una IA es mejor que nosotros al diseñar IA para que pueda mejorarse sin ayuda humana. SI esto sucede tendríamos que enfrentar una explosión de inteligencia en la que a fin de cuentas habría máquinas cuya AI superaría nuestra inteligencia en niveles mayores en que superamos a los caracoles".

En otra pregunta, sobre si llegará un "desempleo tecnológico" debido al avance de la automatización, Hawking refirió algo que asombró a muchos de sus seguidores: la tecnología es un factor que fomenta la desigualdad social.

"Si las máquinas producen todo lo que necesitamos, el resultado depende de cómo se distribuyen la cosas. Todos podemos disfrutar una vida de placer lujoso si la riqueza producida por las máquinas se comparte. Pero la mayoría podría ser pobre hasta la miseria si los dueños de las máquinas imponen una campaña contra la redistribución de la riqueza. A la fecha, las tendencias apuntan a la segunda opción, pues la tecnología impulsa una creciente desigualdad".

Esto va muy en sentido contrario a lo que Angus Deaton, otro británico y ganador del Premio Nobel de Economía en 2015, afirma sobre el factor tecnológico en el abatimiento de la pobreza.

Deaton dice que hay que alejarse de una ilusión tecnológica en la que los derechos de los pobres no cuentan, pues como nunca en la historia la tecnología misma puede acortar las brechas con los ricos. Es un medio y es una herramienta para crecer y generar la oportunidad de mejorar la vida de todos, sobre todo en educación y en salud, dijo Deaton en un reciente ensayo.

@alex_angeles
digitalcapital@gmail.com