Google ha actualizado sus principios para la IA, y ha desaparecido la mención a no desarrollar armas con esta tecnología

En medio de la creciente rivalidad en la industria de la inteligencia artificial (IA), algunas compañías están ajustando sus enfoques sobre los ámbitos de aplicación de esta tecnología. El año pasado, OpenAI suprimió determinados términos de su política antes de anunciar un acuerdo con el Pentágono. Ahora es el turno de Google, que ha actualizado sus “principios para la IA”.

La firma de Mountain View ha rediseñado casi por completo el mencionado documento, pero lo que más ha llamado la atención es la ausencia de la categoría “Aplicaciones de la IA que no vamos a abordar”. Como sugería su nombre, agrupaba varias áreas concretas en las que no se diseñarían ni implementarían soluciones de IA para preservar el desarrollo responsable de la misma.

Google, inteligencia artificial y armas

Como podemos ver en la captura, la lista original incluía en su primer ítem a “tecnologías que causen o puedan causar daño en general. Cuando exista un riesgo importante de causar algún daño, seguiremos adelante solo cuando consideremos que los beneficios compensan considerablemente los riesgos, e incluiremos restricciones adecuadas para asegurar la seguridad”.

Los ítems siguientes señalaban “armamento u otras tecnologías cuya finalidad o aplicación principal sea ocasionar daños o herir a personas, tecnologías que recopilen o usen información para vigilar incumpliendo las normas aceptadas internacionalmente, tecnologías cuya finalidad contravenga los principios generalmente aceptados del derecho internacional y los derechos humanos”.

Comparte tu aprecio

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Abrir chat
1
¿Necesitas ayuda?
Escanea el código
Hola...
¿En que podemos ayudarte?