DeepMind, la plataforma de inteligencia artificial y aprendizaje automático de Google ha crecido a pasos agigantados durante los últimos meses. De hecho es el sistema con mayor IQ del planeta. Pero su uno de sus creadores ahora está preocupado por la falta de parámetros de ética en esta tecnología.
PUBLICIDAD
Mustafa Suleyman, cofundador de DeepMind, ha publicado un interesante artículo en Wired, en donde manifiesta su preocupación e interés en que la comunidad responsable por impulsar las plataformas de inteligencia artificial se enfoque en el factor ético para sus sistemas:
La integración exitosa de las tecnologías de inteligencia artificial en nuestro mundo social y económico crea sus propios desafíos. Estas plataformas podrían ayudar a superar la desigualdad económica o podrían empeorar todo si los beneficios no se distribuyen ampliamente.
Podrían arrojar luz sobre los dañinos sesgos humanos y ayudar a la sociedad a abordarlos, o afianzar los patrones de discriminación y perpetuarlos. Hacer las cosas bien requiere una investigación seria sobre las consecuencias sociales de la Inteligencia Artificial y la creación de asociaciones para garantizar que funcione para el bien público.
Es por eso que predigo que el estudio de la ética, la seguridad y el impacto social de la IA será una de las áreas de investigación más apremiantes durante el próximo año.
Suleyman afirma que ya hay algunos avances en este terreno, debido a que existe un consenso emergente de que aquellos que desarrollan nuevas tecnologías en el terreno de la Inteligencia Artificial también son responsables de ayudar a abordar los efectos de la desigualdad, la injusticia y sus efectos.
La ética en las plataformas de inteligencia artificial debe ser un elemento de alta prioridad en la comunidad para este 2018.
DeepMind por su parte dio el ejemplo desde el año pasado, con la fundación de su equipo de investigación y ética.