Cinco advertencias sobre la Inteligencia Artificial
Jeff Bezos de Amazon ha dicho que no está demasiado preocupado por las amenazas potenciales de la IA. Otros visionarios como Elon Musk, Bill Gates y el fallecido físico Stephen Hawking expresaron sus opiniones sobre los peligros potenciales de la IA.
En enero de 2015, Hawking, Musk y otros expertos en Inteligencia Artificial firmaron una carta abierta sobre la investigación en el campo de la IA, solicitando un mayor escrutinio sobre los efectos potenciales en la sociedad. El documento de doce páginas se titula «Prioridades de investigación para la inteligencia artificial robusta y beneficiosa: una carta abierta», y aboga por desarrollar una fuerte investigación sobre la creación de nuevas leyes en inteligencia artificial, el desarrollo de una ética asociada y normativa, la salvaguarda de la privacidad y otras inquietudes.
Como se describe en la carta, las amenazas potenciales de la Inteligencia Artificial caen en múltiples dimensiones. La buena noticia es que las primeras etapas de la IA en las que nos encontramos son maleables. Por tanto, el futuro nos pertenece para orientarlo en la dirección adecuada, es ahora cuando debemos dirigir los esfuerzos en investigar y desarrollar aspectos no tan relacionados con la ingeniería y más con la ética y como consecuencia la política en torno a la IA.
Stephen Hawking, se aseguró de que el mundo conociera sus inquietudes sobre la IA antes de morir. En una época en la que la Inteligencia Artificial General se denomina «el último invento de la humanidad», estas preocupaciones no son simplemente declaraciones de búsqueda de atención sin fundamento. Son apelaciones preventivas para hacer las cosas bien, mientras todavía haya tiempo. Nadie sabe con certeza cuan lejana está la Inteligencia Artificial General, pero sí sabemos que la IA está mejorando. Incluso si la IA General no llegara, hay muchas razones por las que deberíamos preocuparnos por el avance de la IA específica.
¿Y qué ocurriría si hay un punto intermedio entre lo específico y lo general? Es perfectamente posible que los sistemas de IA futuros se vuelvan más robustos para generalizar la capacidad de resolución de problemas sin llegar a ser plenamente conscientes. Así lo hemos podido comprobar este junio de 2020 con GPT-3 de OpenAI, considerado el primer modelo generalista con 175.000 millones de parámetros, y cuyo aprendizaje ha incluido toda la Wikipedia y prácticamente todos los documentos públicos del conocimiento humano en casi todas las disciplinas científicas. Este nuevo modelo es capáz de escribir libros, artículos, guiones, diseñar, programar y un sin fin de tareas más, llevamos menos de dos meses investigándolo y ha dejado perplejos a sus creadores, entre ellos Ellon Musk.
Veamos ahora cuales son algunas de las opiniones y advertencias de los líderes de la industria tecnológica actual. Estas personas, no solo son inteligentes y con visión de futuro, sino que además han estado liderando el progreso de la tecnología y la investigación en Inteligencia Artificial. Sus preocupaciones no son nuevas, pero ciertamente han conseguido que los medios de comunicación se hagan eco de los posibles escenarios distópicos de la IA.
1. Las empresas deben autorregular sus tecnologías de Inteligencia Artificial.
El actual CEO de Google, Sundar Pichai, dijo que los temores de la IA son «muy legítimos». Aunque tremendamente tecno-optimista, Pichai siempre insiste en que las principales empresas de tecnología deben establecer pautas éticas y otras medidas de seguridad al implementar sistemas de IA. Google ha dado ejemplo cancelando un acuerdo multimillonario con el Pentágono, después de que una protesta de empleados de alto nivel, denunciará lo peligroso de la venta de tecnología avanzada de Inteligencia Artificial para su uso armamentístico.
La esperanza es que las principales empresas de tecnología puedan implementar sistemas que minimicen el impacto negativo potencial de sus tecnologías. Pichai cree que estas empresas podrán autorregularse. Esto concuerda con los principios de Inteligencia Artificial de Google que se publicaron en junio de 2018. Algunos de los puntos descritos en la carta abierta son que la tecnología basada en IA debe ser socialmente beneficiosa y estar ampliamente probada. También se incluyen en el documento las áreas en las que Google no aplicará sus tecnologías de IA, tales como la vigilancia, las armas o cualquier cosa que infrinja el derecho internacional.
2. La Inteligencia Aritificial podría iniciar una nueva carrera armamentística global.
Elon Musk, el fundador de Tesla, SpaceX, Neuralink, Starlink y la iniciativa openAI, ha estado abiertamente en contra de la armamentización de la IA. La Inteligencia Artificial no solo tiene el potencial de crear armas devastadoras, sino que también desencadenaría una carrera armamentística global entre naciones. Musk cree que es inevitable que la IA se use como un arma, pero que no debería ser así.
Junto a otros líderes de la industria, firmó una petición dirigida a la Convención de la ONU sobre Armas Convencionales que exige la prohibición de armas autónomas con capacidades de IA. La creación absoluta de estas armas debe regularse como cualquier otra arma de guerra no convencional. Musk también dijo que ve la amenaza de las armas con IA mucho peor que la de las armas nucleares. Tan pronto como se desarrollen, las armas IA tendrán el potencial de caer en manos de estados opresivos o terroristas. Sería abrir la caja de Pandora.
3. La inteligencia artificial puede no estar alineada con nuestros objetivos.
El físico Stephen Hawking no temía expresar sus opiniones sobre la amenaza existencial de la Superinteligencia Artificial. Él creía que una vez que un sistema de Inteligencia Artificial se volviese más inteligente que sus creadores, podría decidir que sus objetivos son diferentes a los de la humanidad. Esto desencadenaría, como dijo Hawking, «el fin de la especie humana».
En lugar de acelerar ciegamente el ritmo de la investigación de la IA, Hawking imploró a los miembros de la industria que avanzaran con cuidado, asegurando que se implementaran las medidas de seguridad adecuadas en cada paso del proceso. Si no se hace, entonces no habría garantía de que el sistema de IA cumpliera con nuestra forma de vida.
Al mismo tiempo, Hawking reconoció el potencial de esa IA para producir enormes beneficios para la raza humana. Para él, si la Superinteligencia surgiera de la Inteligencia Artificial General, el escenario ideal sería que decidiera trabajar a nuestro favor, y la única forma de lograr este objetivo es introducir salvaguardas y prepararse para los peores escenarios. Crear en definitiva una ética para máquinas.
4. No sabemos cómo controlar la Inteligencia Artificial.
En caso de que se consiguiese crear una máquina con Inteligencia Artificial General, es muy probable que intentaría modificar su propio código para ser aún más inteligente. A esto, se lo conoce como explosión de inteligencia y desencadenaría la aparición de la Superinteligencia. Stephen Hawking y Bill Gates inisistieron muchísimo sobre que esta Superinteligencia sería catastrófica y supone la mayor de las amenazas.
Bill Gates apoya el mismo pensamiento alarmista detrás de la retórica de Hawking y Musk: «no entiendo cómo la gente no está preocupada». Sin embargo, también cree firmemente que las compañías de tecnología serán extremadamente cuidadosas cuando investiguen en Inteligencia Artificial General, ya que este tipo de sistemas podría quedar rápidamente fuera de nuestro control. Gates sentencia convencido que la humanidad aprovechará el poder de la Inteligencia Artificial General en lugar de ser destruida por ella.
Hawking sin embargo, creía que un sistema de IA súper inteligente no sería capaz de ser contenido por mucho tiempo. Es decir, simplemente no sabremos cómo controlar ese nivel de inteligencia, ya que desconocemos a día de hoy de qué tipo de sistemas se derivará y como poder prevenirlo. Pero si se supiese, es probable que con una ingeniería cuidadosa se pudiera llegar a contener.
Elon Musk se refirió recientemente a la IA súper inteligente como un «dictador inmortal». Es difícil imaginar qué tipo de poder tendrá un sistema de este tipo, especialmente si no hay salvaguardas sobre cómo ese sistema puede acceder a las redes financieras, los sistemas de armas, y la red eléctrica.
5. La inteligencia artificial aumentará la desigualdad.
Stephen Hawking fue quien observó que la tendencia actual de la tecnología era crear una «desigualdad cada vez mayor». Lo que significa que existe una enorme diferencia creciente entre distintos lugares, en cuanto a concentración de riqueza, inversión tecnológica, educación digital y movilidad económica. El avance de la IA, ya sea general, específica o en modo intermedio, solo acelerará esta división. La única forma de parar esta tendencia será mediante el desarrollo de políticas humanocéntricas para la regulación de la IA y la automatización del trabajo.
Muchos, como Elon Musk, han formulado la hipótesis de que el próximo salto en la evolución de la inteligencia no provendrá de máquinas puras, sino de una simbiosis entre Computadores, Inteligencia Artificial y Humanos. Musk ya cree que cualquiera con un teléfono inteligente es un cyborg. El Smartphone abre muchas vías para aumentar la inteligencia de las personas a través de una conexión directa con Internet, y que gracias al 5G es probable que se realice a tiempo real y desde cualquier punto del planeta. Además es muy posible que en el futuro, estos dispositivos se integren directamente en el ser humano, bioimplantados en un proceso que se denomina cyborgización progresiva. Creando un nuevo tipo de humanos, los humanos aumentados o transhumanos.
La pregunta es, ¿quién será aumentado y quién no? Hoy en día, la penetración de los Smartphones es alta incluso en los países en desarrollo, pero eso se debe a que el precio ha caído drásticamente en los últimos años. Pero nada apunta a que lo mismo suceda con las Tecnologías de Aumento. Esto plantea un sinfín de preguntas sobre la ética de la concentración de la riqueza y el impulso de la inteligencia a través de productos comerciales. Cuando estas tecnologías vayan apareciendo, serán los de alto poder adquisitivo quienes obtengan acceso inmediato, dejando a las poblaciones más pobres rezagadas exponencialmente.