Existe una creciente preocupación por el ritmo de crecimiento sin aparente control ni regulación de las plataformas de Inteligencia Artificial. De modo que Elon Musk, Steve Wozniak y más de 1,000 personalidades del mundo tecnológico, han firmado una carta masiva en donde solicitan frenar el entrenamiento de estos sistemas.
La petición no es que se detenga por completo el avance de esta clase de tecnología, sino que se otorgue una pausa de por lo menos 6 meses para que las propias compañías puedan enfocarse en el desarrollo de protocolos de seguridad y otras medidas que aseguren que esto no vaya a terminar mal.
Hace algunos días compartíamos cómo el propio equipo de investigadores de Microsoft había analizado la más reciente versión de GPT-4 desarrollado por OpenAI, concluyendo que esta actualización en principio tendría cualidades de ser una anteriormente inconcebible Inteligencia Artificial General (AGI).
Tal situación significaría que este sistema cuenta ahora con capacidades que están al mismo nivel que la de un humano o en algunos casos ligeramente por encima, incluyendo la resolución de problemas de matemáticas, codificación, visión, medicina, derecho, psicología y más, sin necesidad de ninguna indicación especial.
Este es un gran avance pero también implica un gran riesgo potencial, por lo que algunas de las personalidades más importantes del ramo han reaccionado.
Steve Wozniak, Elon Musk y cientos de investigadores piden pausar entrenamiento de sistemas de Inteligencia Artificial por el bien de todos
El director del Centro de Sistemas Inteligentes de la Universidad de Berkley, Stuart Russell, el investigador del Instituto de Investigación en Inteligencia Artificial del CSIC, Ramón Lopez De Mantaras, Jaan Tallinn, cofundador de Skype, el CEO de Getty Images, Craig Peters, Steve Wozniak co-fundador de Apple, Elon Musk, ejecutivo detrás de Tesla Motors, SpaceX, Neuralink y Tesla Motors, junto a más de mil personalidades han firmado una carta abierta (vía Windows Central).
En dicha misiva todos los firmantes solicitan que se pause por lo menos seis el desarrollo de tecnologías con capacidades superiores a las de GPT-4 y su entrenamiento de Inteligencia Artificial para desarrollar una serie de medidas y protocolos de seguridad que aseguren el control de estos sistemas.
La inquietud es que a este ritmo se siga alimentando sistemas de IA “impredecibles y cada vez con más capacidades emergentes”, en un entorno donde honestamente no existe mucha transparencia ni regulación.
De ahí que el planteamiento sea destinar el periodo de dicha pausa a crear los mecanismos de gestión y alguna serie de estándares generales para asegurar el uso controlado y seguro de estas plataformas.