En un sorprendente giro de eventos, una reciente encuesta realizada por el grupo de expertos AI Policy Institute ha revelado que el 72 por ciento de los votantes estadounidenses está a favor de desacelerar el desarrollo de la inteligencia artificial (IA), en marcado contraste con la opinión de líderes tecnológicos y ejecutivos de la industria como Sam Altman.
El CEO de OpenAI ha expresado públicamente la necesidad de mantener el ritmo del avance en IA para no quedarse rezagados frente a competidores internacionales, especialmente China. Sin embargo, la encuesta, realizada por la firma de análisis de datos YouGov y que abarcó a 1.001 ciudadanos de diferentes edades, géneros y afiliaciones políticas, destaca una postura cautelosa por parte del público.
Como explica Vox, la divergencia entre la opinión de la élite tecnológica y la opinión pública es notoria. Mientras que Altman argumenta a favor de impulsar la IA para garantizar la competitividad global, los resultados de la encuesta sugieren que la mayoría de los estadounidenses abogan por un enfoque más prudente en el desarrollo tecnológico.
Jack Clark, director ejecutivo de Anthropic, una empresa de investigación y seguridad en IA, señaló la discrepancia entre estos puntos de vista en su boletín informativo. Destacó que “estos resultados son interesantes porque parecen mostrar una divergencia entre la opinión de la élite y la opinión popular”.
Preocupación por los impactos de la IA
Esta postura refleja la creciente preocupación por los posibles impactos negativos de la IA en la sociedad. A medida que las aplicaciones de IA se vuelven más ubicuas, surgen inquietudes sobre la privacidad, la seguridad y la toma de decisiones autónomas.
El llamado a la moderación en el desarrollo de la IA por parte del público podría influir en la formulación de políticas más cautelosas en el ámbito gubernamental.
Los resultados también subrayan la importancia de la regulación de la IA. La encuesta revela que el 82 por ciento de los votantes estadounidenses no confía en que las empresas de IA se autoregulen de manera efectiva. Esto coincide con la percepción generalizada de que las autorregulaciones tecnológicas pueden no ser suficientes para abordar los desafíos éticos y de seguridad planteados por la IA.
En respuesta a esta desconfianza, el AI Now Institute ha propuesto un nuevo marco de gobernanza de IA llamado “Zero Trust AI Governance” (Gobernanza de IA de Confianza Cero). Este enfoque llama a los legisladores a tomar un papel activo en la regulación de la IA y a no depender exclusivamente de las promesas de autorregulación de las empresas tecnológicas.