A raíz de las críticas y la controversia desatada por Project Maven, el programa de Google para darle inteligencia artificial a sus drones militares, la compañía ha hecho públicos sus principios para el desarrollo de su IA.
PUBLICIDAD
En el blog de Google apareció un artículo firmado por Sundar Pichai en el que asegura que Google nunca trabajará en aplicaciones de inteligencia artificial «que causen o puedan causar daño», «que recopilen información para vigilancia rompiendo normas internacionales», «que contravengan los principios internacionales de derechos humanos» y, tal vez más importante que lo anterior, «en tecnologías o armas cuyo propósito principal sea causar daño directo o indirecto a personas».
Esto último tiene que ver justamente con lo que significa Project Maven, un proyecto en conjunto con el gobierno de Estados Unidos para dotar de inteligencia artificial a drones y que en base a eso, dispararan. Los nuevos principios de Google sobre la IA dicen que trabajarán en ella solo cuando sea «socialmente beneficiosa».
«Si bien no vamos a desarrollar inteligencia artificial para armas», escribe Pichai, «seguiremos trabajando con gobiernos y milicia en otras áreas» que pueden incluir entrenamiento, tratamientos de salud para veteranos o ciberseguridad.
En lo que respecta a Project Maven, Google anunció (vía Gizmodo) que no renovarán su contrato con el Pentágono una vez que este expire el próximo 2019.