Una carta firmada por alrededor de 200 trabajadores de DeepMind (aproximadamente el 5% del personal) fue enviada a los altos mandos de Google, exigiendo el cese de contratos con organizaciones militares, en mayo de este año.
PUBLICIDAD
Y es que, en 2018, tras la controversia generada por el Proyecto Maven (un contrato de Google con el Departamento de Defensa de Estados Unidos para mejorar la precisión de los drones militares mediante IA), la compañía publicó sus “Principios de IA”. Estos establecen, entre otras cosas, que esta tecnología no podría ser diseñada ni aplicará en armas cuyo propósito principal o implementación sea causar o facilitar directamente daños a las personas, y que tampoco se puede utilizar en tecnologías de vigilancia que violen normas internacionalmente aceptadas.
Sin embargo, a medida que los contratos con gobiernos y ejércitos se han multiplicado, el cumplimiento de estos principios ha sido cuestionado. Los trabajadores de DeepMind, en su carta, recordaron a la compañía que su misión como líderes en IA ética y responsable se ve comprometida por cualquier participación en la fabricación de armas o en la vigilancia masiva. En su opinión, tal involucramiento no solo daña la reputación de Google, sino que también va en contra de la declaración de misión de la compañía y de los compromisos éticos previamente adquiridos.
La fusión de DeepMind y Google Brain: ¿Una estrategia de control?
La fusión de DeepMind con Google Brain fue justificada por Sundar Pichai, CEO de Google, como una forma de acelerar el desarrollo de IA general y de afrontar los desafíos científicos y de ingeniería más complejos de nuestro tiempo.
No obstante, para muchos dentro de DeepMind, esta fusión fue vista como una forma de Google de consolidar su control sobre la tecnología y de diluir la independencia que la startup londinense había mantenido desde su adquisición.
Con la fusión, DeepMind dejó de ser una entidad separada y comenzó a operar bajo la política ética general de Google, lo que generó nuevas tensiones entre los empleados preocupados por el uso potencialmente militar de sus innovaciones.
Las repercusiones éticas y sociales de la IA en la milicia
La carta de los empleados de DeepMind no solo es un llamado a la reflexión dentro de Google, sino que también pone de relieve un debate más amplio sobre las repercusiones éticas y sociales del uso de IA en el ámbito militar. Y es que, a medida que la tecnología avanza, las líneas que separan las aplicaciones civiles y militares de la IA se vuelven cada vez más difusas.
PUBLICIDAD
Por otro lado, su aplicación en el ámbito militar, especialmente en áreas como la vigilancia y la selección de objetivos, puede tener consecuencias devastadoras. La capacidad de la IA para analizar grandes cantidades de datos y tomar decisiones en fracciones de segundo la convierte en una herramienta poderosa, pero también peligrosa si se utiliza sin las debidas restricciones éticas.
La situación también ha puesto de relieve las limitaciones de los principios éticos de Google en la práctica. Aunque la compañía ha establecido directrices claras sobre el uso responsable de la IA, la realidad es que estos principios pueden entrar en conflicto con los intereses comerciales y las presiones externas, como los contratos gubernamentales. Este conflicto interno refleja una tensión más amplia en la industria tecnológica: la de equilibrar la innovación y el progreso con la responsabilidad ética y social.
Para los empleados de DeepMind, la solución pasa por una revisión profunda de los contratos militares de Google y la creación de un organismo independiente que supervise el uso de la tecnología en estos contextos; sin embargo, lograr este cambio no será fácil.