Europa se centrará durante los próximos años en una tecnología que redunde en beneficio de las personas; una economía justa y competitiva; y una sociedad abierta, democrática y sostenible.

Europa posee todo lo necesario para convertirse en un líder mundial en sistemas de Inteligencia Artificial que puedan usarse y aplicarse de forma segura, y lo está llevando a cabo con determinación tal como empieza a dibujarse en la Estrategia Europea para la Inteligencia Artificial o el LIBRO BLANCO sobre la Inteligencia Artificial dónde propone un marco para desarrollar una Inteligencia Artificial fiable, basado en la excelencia y la confianza.

Hasta hace poco se decía que Europa aún tenía en cuenta las 3 leyes de la robótica de Isaac Asimov, que se popularizaron gracias a sus novelas: la primera, un robot nunca debe hacer daño a un ser humano; la segunda, un robot debe obedecer a los seres humanos a menos que sus órdenes contradigan la primera ley; y la tercera, un robot debe preservar su existencia a menos que se contradigan alguna de las dos primeras leyes.

El mundo en el que hoy vivimos, no está tan tecnológicamente avanzado como el que predecían las novelas de Isaac Asimov, y parece que lo que sí ha quedado por fin obsoleto son sus tres leyes. Tocaba una revisión ética sobre el advenimiento de la robótica y su posible inteligencia asociada, y es en este momento cuando la Unión Europea ha propuesto un conjunto de siete normas éticas que deben aplicar las empresas a sus desarrollos de Inteligencia Artificial, en una primera aproximación de lo que debería ser el principio de una Ética para Máquinas.

La Comisión Europea considera que “la Inteligencia Artificial presenta nuevos desafíos para el futuro del trabajo y plantea cuestiones legales y éticas” a la vez que supone claros beneficios en diversos sectores “como la atención médica, el consumo de energía, la seguridad de los automóviles, la agricultura, el cambio climático, la gestión de riesgos financieros y en general prácticamente todos los sectores de la economía”.

Por estas razones básicamente ha considerado plantear unos estándares éticos realizados por un grupo interdisciplinar de 55 expertos, 35 de los cuales son tecnólogos o representantes del sector tecnológico, y 5 son éticos y filósofos entre otros expertos como abogados, empresarios y sociólogos.

El objetivo principal ha sido ganar confianza entre los ciudadanos y para ello el sector y los agentes políticos llamados a regularlo deben fijarse como meta «incrementar el bienestar», observando valores de la Unión Europea como «el respeto a la dignidad humana, la democracia, la igualdad, el Estado de derecho y los derechos humanos».

Las 7 normas serían:  

1. Supervisión humana: Los sistemas de Inteligencia Artificial deben permitir sociedades equitativas apoyando la acción humana y los derechos fundamentales, y no disminuir, limitar o desviar la autonomía humana. Debe de ser supervisada por seres humanos, con las «apropiadas medidas de contingencia».

2. Robustez y seguridad: La Inteligencia Artificial confiable requiere que los algoritmos sean lo suficientemente seguros y lo suficientemente sólidos como para enfrentar errores o inconsistencias durante todas las fases del ciclo de vida de los sistemas de Inteligencia Artificial. Los sistemas deben ser «resistentes» y «resilientes» ante eventuales intentos de manipulaciones o de hackeo y dotarse de planes de contingencia.

3. Privacidad y control de los datos: Los ciudadanos deben tener un control total sobre sus propios datos. Los datos que los conciernen no se utilizarán para perjudicarlos ni discriminarlos. Se debe garantizar la privacidad de los datos de los ciudadanos en todo el ciclo vital de la Inteligencia Artificial.

4. Transparencia: Se debe garantizar la trazabilidad de los sistemas de IA. Debe ser transparente, lo que supone poder reconstruir cómo y por qué se comporta de una determinada manera y quienes interactúen con esos sistemas deben saber que se trata de Inteligencia Artificial, así como qué personas son sus responsables. 

5. Diversidad, no discriminación y equidad: Los sistemas de IA deben considerar toda la gama de habilidades y requisitos humanos, y garantizar adecuadamente la accesibilidad. Se debe de tener en cuenta la diversidad social desde su desarrollo para garantizar que los algoritmos en que se base no tengan sesgos discriminatorios directos o indirectos

6. Bienestar social y ambiental: Los sistemas de Inteligencia Artificial y el desarrollo tecnlógico en general, deben utilizarse para mejorar el cambio social positivo, la sostenibilidad medioambiental y la responsabilidad ecológica.

7. Responsabilidad: Deben establecerse mecanismos para garantizar la responsabilidad y la rendición de cuentas de los sistemas de IA y sus resultados ante auditores externos e internos.

Pero este planteamiento europeo no es nuevo, Google ya en 2018 propuso también sus 7 mandamientos de la Inteligencia Artificial. Principios bajo los cuales ha prometido controlar el uso y desarrollo de la Inteligencia Artificial, ya que actualmente la mayoría de sus proyectos producto de esta tecnología. De hecho Sundar Pichai, CEO de Google, ha repetido numerosas veces que nos movemos de un mundo Mobile-Fisrt a uno AI-First y que ya no hay vuelta atrás.

Como ejemplos, cabe citar a Google Assistant, su asistente de voz, o la forma en la que Google Fotos categoriza las imágenes dependiendo de lo que aparece en ellas, o el reciente Google Duplex que es capaz de llevar una conversación tal como lo haría una persona, modismo incluidos. Estos desarrollos son parte de la oferta cotidiana de la gran corporación tecnológica; y numerosas veces ha declarado que su apuesta por el futuro radica en la Inteligencia Artificial y que es enormemente necesario crear estándares éticos para su uso adecuado al servicio del ser humano.

En un documento que mediatizó durante 2018, declaró que cumpliría estos objetivos mediante la implementación de siete principios en todos los desarrollos que acometería en el área la IA. “Anunciamos que estos siete principios guiarán nuestro trabajo hacia adelante. Estos no son conceptos teóricos; son estándares concretos que gobernarán de forma activa nuestra investigación y desarrollo de productos e impactarán en nuestras decisiones de negocio”, declararon en el documento.

Aunque Google no es la única tecnológica que hoy en día utiliza y apuesta fuertemente por la Inteligencia Artificial, sí es la primera en proponer reglas de actuación sobre una tendencia específica. A la misma vez que declaró los 7 principios, también aseguró que no usará la IA para el desarrollo de aplicaciones que puedan causar algún tipo de daño como, por ejemplo, armas basadas en IA o tecnologías capaces de reunir información para realizar espionaje, que contravengan reglas internacionales o violen los derechos humanos.

Google expuso que la IA ética es su gran apuesta para el largo plazo y “la base correcta para la compañía y el futuro desarrollo de la Inteligencia Artificial” aunque esto implique ceder en otras decisiones a corto plazo. “Hemos manifestado claramente nuestra intención para tomar una perspectiva ética a largo plazo, aunque esto signifique hacer cambios significativos a corto plazo”.

Aunque Google está a la cabeza de los esfuerzos en el desarrollo de la Inteligencia Artificial advierte que continuará colaborando y compartiendo sus aprendizajes con el ecosistema tecnológico. De hecho, la declaración de estos 7 principios ocurrió justo después de que tras una fuerte polémica, una gran representación de empleados de Google, solicitaran a la empresa parar el desarrollo de soluciones y tecnologías de Machine Learning e Inteligencia Artificial en conjunto con operadores del ejército de Estados Unidos como DARPA, lo que desembocó en la venta de Boston Dynamics, la famosa compañía de Robótica.

Estos son los 7 principios de la Inteligencia Artificial, según Google:

1. Por el bien social

Tomarán en cuenta el impacto social y económico de cualquier desarrollo y procederán a implementar nuevas tecnologías en sitios o ambientes en donde el riesgo sea menor que el beneficio.

“Continuaremos respetando a la sociedad, las culturas y las normas legales en todos los países en los que operamos. Seguiremos evaluando a conciencia cuándo hacer disponibles nuestros desarrollos en términos no comerciales”

2. Evitar reforzar o crear sesgos injustos

Buscarán evitar que la tecnología refuerce o cree sesgos de opinión o que refleje juicios que puedan causar algún impacto negativo en la sociedad, particularmente relacionado a características de raza, etnia, género, nacionalidad, estrato social, orientación sexual, habilidades o inclinaciones políticas y religiosas.

3. Construir y probar para la seguridad

En términos de seguridad, Google se compromete a desarrollar la IA en línea con principios que pongan por encima la seguridad de los usuarios, y aclaró que en casos en los que sea apropiado se harán pruebas de los desarrollos en ambientes controlados.

4. Rendir cuentas

En este sentido, advirtió su compromiso para hacer desarrollos que se nutran de dirección humana y control. “Diseñaremos sistemas de IA que puedan proveer oportunidades para la retroalimentación y para explicaciones relevantes”.

5. Incorporar principios de privacidad desde el diseño

Sus desarrollos estarán abiertos para el escrutinio y exhortó a trabajar bajo arquitecturas de privacidad y que provean a los interesados de controles de transparencia y control sobre el uso de datos. “Tomaremos el desarrollo de la IA con responsabilidad y compartiremos los conocimientos de IA al publicar material académico, buenas prácticas e investigación que ayuden a más personas a desarrollar aplicaciones útiles de IA”.

6. Alcanzar la excelencia científica

Google consideró el impacto que esta tecnología puede tener en distintos entornos de la ciencia, por lo que se comprometió a siempre aspirar a desarrollos de excelencia. «Las herramientas de la IA tienen el potencial de abrir nuevos horizontes científicos y ampliar el conocimiento de dominios como la biología, química, medicina y ciencias ambientales. Aspiramos a los más altos estándares de la excelencia científica mientras trabajamos en le desarrollo de IA«.

7. Desarrollar para el buen uso

Por último, Google advirtió que limitará el desarrollo de la tecnología para aplicaciones que puedan causar algún tipo de daño y evaluarán este riesgo en cuatro factores: Propósito para el desarrollo, el origen de la tecnología que se busca desarrollar y su originalidad, su posibilidad de escalabilidad y qué tanto hace que sentido que Google se involucre en el desarrollo de dicha aplicación.

Tienen cierta semejanza con las 7 normas europeas, y en general con las distinas propuestas que han ido apareciendo a lo largo de los dos últimos años. Y aunque Europa está llamada a liderar el desarrollo ético de la tecnología digital, no hay que olvidar que Google ya lo había planteado, y esto redunda en beneficio de toda la humanidad.