
En medio de la creciente rivalidad en la industria de la inteligencia artificial (IA), algunas compañías están ajustando sus enfoques sobre los ámbitos de aplicación de esta tecnología. El año pasado, OpenAI suprimió determinados términos de su política antes de anunciar un acuerdo con el Pentágono. Ahora es el turno de Google, que ha actualizado sus “principios para la IA”.
La firma de Mountain View ha rediseñado casi por completo el mencionado documento, pero lo que más ha llamado la atención es la ausencia de la categoría “Aplicaciones de la IA que no vamos a abordar”. Como sugería su nombre, agrupaba varias áreas concretas en las que no se diseñarían ni implementarían soluciones de IA para preservar el desarrollo responsable de la misma.
Google, inteligencia artificial y armas
Como podemos ver en la captura, la lista original incluía en su primer ítem a “tecnologías que causen o puedan causar daño en general. Cuando exista un riesgo importante de causar algún daño, seguiremos adelante solo cuando consideremos que los beneficios compensan considerablemente los riesgos, e incluiremos restricciones adecuadas para asegurar la seguridad”.
Los ítems siguientes señalaban “armamento u otras tecnologías cuya finalidad o aplicación principal sea ocasionar daños o herir a personas, tecnologías que recopilen o usen información para vigilar incumpliendo las normas aceptadas internacionalmente, tecnologías cuya finalidad contravenga los principios generalmente aceptados del derecho internacional y los derechos humanos”.