Los Principios de Asilomar: ¿Qué son y Por qué son Relevantes para la IA?

Alexio Cogni
12 Min Lectura

¿Por qué las máquinas necesitan saber qué es bueno y qué es malo? ¿Cómo se «educa» la inteligencia artificial y en qué medida los conjuntos de reglas, como los Principios de Asilomar, ayudan en este proceso?

Los Principios de Asilomar

Los Principios de Asilomar son 23 recomendaciones importantes para guiar el trabajo con inteligencia artificial con el fin de utilizarla exclusivamente de manera positiva. En 2017, se llevó a cabo la Asilomar Conference on Beneficial AI 2017 en California, dedicada al uso seguro de la inteligencia artificial para el beneficio de la humanidad. Participaron científicos y expertos en IT, tecnología de inteligencia artificial, robótica y derecho. Los Principios de Asilomar surgieron como resultado de esta conferencia.

Concepto de los Principios de Asilomar
Concepto de los Principios de Asilomar

Los principios abarcan varios aspectos, como la seguridad, la ética de la investigación, la igualdad y la transparencia. Aunque el documento no tiene fuerza legal, puede servir como una guía ética para aquellos que participan en la investigación y el desarrollo de tecnologías de inteligencia artificial.

Los Principios de Asilomar fueron firmados por más de 5700 personas, incluidos el empresario Elon Musk, el físico teórico Stephen Hawking, el profesor de la Universidad de California Stuart Russell, el cofundador y director de investigación de OpenAI Ilya Sutskever y el fundador de DeepMind (más tarde adquirida por Google) Demis Hassabis.

¿Por qué son Necesarios los Principios de Asilomar?

La inteligencia artificial tiene un gran potencial tanto para mejorar nuestras vidas como para crear problemas o empeorar los existentes. Uno de estos problemas es la discriminación social. Por ejemplo, se descubrió que el sistema de reconocimiento facial Rekognition mostraba prejuicios hacia las personas de piel oscura. El algoritmo de contratación de Amazon mostraba discriminación hacia las candidatas mujeres, y los algoritmos de sentencia pueden estar sesgados racialmente contra los acusados de piel oscura. Estos casos surgen porque los conjuntos de datos utilizados para entrenar las redes neuronales contienen información sesgada (bias), y los algoritmos comienzan a reproducirla. Los Principios de Asilomar están destinados a minimizar el impacto de esta información sesgada.

Además, el desarrollo no regulado de la inteligencia artificial puede dejar a las personas sin trabajo y tener un impacto negativo en la economía de las regiones. A medida que los robots y las redes neuronales manejan cada vez mejor tareas complejas, existe el riesgo de que eventualmente desplacen a los empleados reales de sus puestos de trabajo. Esto llevará al desempleo y al declive económico. Los principios dictan que cualquier tecnología de inteligencia artificial debe desarrollarse de manera que no solo no quite empleos, sino que beneficie a todos los miembros de la sociedad.

Ilustración de robot bueno y robot malo
Ilustración de robot bueno y robot malo

Según los Principios de Asilomar, el desarrollo de la inteligencia artificial debe ser transparente y rendir cuentas, ya que esto fortalece la confianza de las personas en las nuevas tecnologías. A menudo, los sistemas de inteligencia artificial se consideran «cajas negras«: se refiere a la dificultad para entender y controlar las decisiones y acciones que toman los sistemas y algoritmos de IA. Esto genera escepticismo sobre la inteligencia artificial, especialmente en áreas críticas como la salud y la justicia penal. Los sistemas de IA deben ser diseñados de manera que el funcionamiento sea claro para todos. Las personas necesitan entender cómo se toman las decisiones, qué desarrolladores están involucrados en el proyecto y quién es responsable de las acciones de la inteligencia artificial.

Principios Clave

Algunos de los principios de la IA de Asilomar son los siguientes:

  • Beneficio: Las desarrollos de inteligencia artificial deben proporcionar beneficios para todas las personas y el medio ambiente.
  • Seguridad: Los sistemas de IA deben diseñarse y operarse de manera que minimicen el riesgo de causar daño no intencionado a las personas.
  • Transparencia: El diseño, desarrollo e implementación de sistemas de IA deben ser transparentes; los sistemas de IA deben explicar a las personas sus decisiones y acciones.
  • Confidencialidad: Las tecnologías de IA deben garantizar la seguridad de los datos personales, y los usuarios deben poder controlar qué datos personales pueden utilizar las tecnologías de IA para su funcionamiento.
  • Justicia: En el desarrollo de la IA, no deben permitirse casos de discriminación.
  • Control Humano: Las personas deben tener la capacidad de controlar los sistemas de IA para evitar causarles daño.
  • Beneficio Común: La IA debe beneficiar a la sociedad en su conjunto, no solo a pequeños grupos de personas u organizaciones individuales.
  • Responsabilidad: Las personas responsables del desarrollo e implementación de sistemas de IA deben ser responsables de su impacto en la sociedad.
  • Evitar la Carrera de Armas de IA: Se debe evitar la confrontación entre estados en aras de lograr la supremacía en el campo de las armas autónomas letales y otros sistemas de IA militares.

La lista completa de los Principios de la IA de Asilomar está disponible aquí.

Al mismo tiempo, el científico Techsin Ziya, que dirige la investigación en IA en la Universidad Comsats (Islamabad, Pakistán), señala las debilidades del documento. En primer lugar, los principios son solo recomendaciones, por lo que nadie está obligado a cumplirlos. En segundo lugar, los principios no ofrecen medidas concretas para prevenir o corregir situaciones desfavorables, por lo que su valor práctico es cuestionable. En tercer lugar, los principios están redactados de manera bastante abstracta, dejando espacio para interpretaciones, señala Ziya.

Otras Intentos de hacer la IA Ética

El interés público en el tema de la humanidad y la ética de la IA surgió en la década de 1960, poco después de que surgiera el concepto mismo de «inteligencia artificial«. Los primeros en plantear y tratar de resolver el problema de la moral en el campo de la IA fueron los escritores de ciencia ficción. Reflexionaron sobre si los robots necesitan sus propios «mandamientos» y principios morales, lo que dio lugar a todo un movimiento llamado «roboética».

Derechos humanos y ética de la IA
Derechos humanos y ética de la IA

En la novela de Karel Čapek «R.U.R.» (1920), donde se acuñó por primera vez el término «robot«, existía la Liga de la Humanidad. Según sus leyes, los robots no deben ser objeto de trato inhumano.

Luego, en las obras literarias de Isaac Asimov, aparecieron las «Tres Leyes de la Robótica» más el «Cero Ley«, muy similares en espíritu a los Principios de Asilomar:

  1. Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daño.
  2. Un robot no puede causar daño a un ser humano, ni, por inacción, permitir que un ser humano sufra daño.
  3. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto en los casos en que tales órdenes entren en conflicto con la Primera Ley.
  4. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

El tema de la ética de la IA resurgió a principios de la década de 2000, cuando los robots comenzaron a aparecer en empresas, calles de ciudades y hogares de personas. En 2004, se llevó a cabo el Primer Simposio Internacional sobre Roboética en la ciudad italiana de San Remo, y en 2017, el Parlamento Europeo adoptó la Carta Europea de Robótica. Las discusiones sobre la robótica se intensificaron nuevamente debido a la aparición masiva de robots autónomos de combate y drones, así como a la aparición de sexbots.

El nuevo auge de las redes neuronales y los modelos de aprendizaje profundo ha hecho que la cuestión de la ética de la IA sea aún más apremiante para las principales compañías de tecnología de la información. En 2016, Microsoft publicó «10 leyes para la inteligencia artificial»; IBM también formuló sus propias reglas de ética de la IA. Varias docenas de grandes compañías de TI en todo el mundo tienen sus propios códigos de ética en el campo de la inteligencia artificial.

En 2021, se celebró en Moscú el primer Foro Internacional sobre Ética de la Inteligencia Artificial: el comienzo de la confianza. Como resultado, se adoptó el Código de Ética de la IA de Rusia. Fue firmado por más de 100 organizaciones rusas. En su base, al igual que en los Principios de Asilomar, se encuentran los principios de no causar daño, transparencia, conciencia de la responsabilidad de las acciones de la IA y orientación hacia las personas. El código también es de naturaleza recomendatoria.

Aplicación Práctica de los Principios Éticos

Cada vez más organizaciones gubernamentales, empresas comerciales y ONGs están tratando de implementar el enfoque de ética por diseño en su trabajo, según el cual se deben abordar los posibles dilemas éticos desde las etapas de diseño y creación de sistemas de inteligencia artificial. Este enfoque requiere habilidades adicionales por parte de los desarrolladores.

Otro enfoque es el AI Localism. Su idea es no basarse en la resolución de dilemas morales globales en teoría, sino recopilar los mejores casos de trabajo real con cuestiones éticas en países, ciudades y empresas individuales.

Otra forma de aplicar los principios éticos es recopilar retroalimentación de los propios usuarios, personas afectadas por la IA, grupos discriminados, así como de investigadores y organizaciones sin fines de lucro, no solo de los desarrolladores, expertos y organismos reguladores. De esta manera, las normas éticas serán lo más precisas y útiles posible para el público objetivo.

Compartir este Artículo
Dejar un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *