Google elimina normas sobre IA que prohibían su uso en armamento y vigilancia
Google ha revisado sus principios de inteligencia artificial, eliminando restricciones sobre su uso en armas y vigilancia, lo que genera preocupaciones sobre su futuro.
Google ha realizado un cambio significativo y preocupante en sus principios sobre inteligencia artificial (IA), eliminando el lenguaje que anteriormente prohibía el desarrollo de tecnologías para armas, vigilancia que infrinjan normas internacionales o cualquier tecnología que contravenga los derechos humanos. Este ajuste en la política plantea serias dudas sobre la dirección futura de Google en el ámbito de la IA, que evoluciona rápidamente.
Los principios originales de la compañía prohibían explícitamente las aplicaciones de IA en áreas que pudieran causar daño, incluyendo el uso de IA en contextos militares o de vigilancia. Sin embargo, estos compromisos han sido reemplazados por un lenguaje más amplio y menos específico, centrado en términos como "innovación", "colaboración" y "desarrollo responsable" de la IA. A pesar de que el término "responsable" suena positivo, la falta de definiciones concretas y compromisos claros en los principios revisados abre la puerta a interpretaciones que podrían permitir aplicaciones antes consideradas inaceptables.
En un blog, Demis Hassabis, CEO de DeepMind, junto con James Manyika, alto ejecutivo de Google en tecnología y sociedad, señalaron que la "compleja situación geopolítica" y la "competencia global" en el campo de la IA son factores que han impulsado estos cambios. Argumentan que las democracias deberían liderar el desarrollo de la IA, guiadas por valores como la libertad y los derechos humanos. Sin embargo, la remoción de las prohibiciones anteriores genera inquietudes sobre cómo se aplicarán verdaderamente estos valores.
Es relevante recordar que la participación previa de Google en contratos militares, como el Proyecto Maven (que utilizaba IA para analizar imágenes de drones) y el Proyecto Nimbus (un contrato en la nube con el gobierno israelí), ya había suscitado un debate interno considerable. Esta reciente modificación sugiere un posible giro hacia la aceptación de aplicaciones de IA que podrían tener implicaciones militares o de vigilancia.
Aunque la IA tiene un potencial inmenso, también conlleva riesgos significativos, que ahora parecen más evidentes. Sin importar la intención real detrás de estos cambios, la situación es, sin duda, inquietante. La forma en que se utilizará la IA en contextos de armas, vigilancia y otras áreas grises que afectan los derechos humanos debe mantenerse en el centro del debate mientras continúa su rápida evolución. Este movimiento particular de Google, al igual que los de otros creadores de IA, no es una señal positiva, y eso es un hecho innegable.