ChatGPT de OpenAI y otros sistemas de Inteligencia Artificial (AI) se han convertido en materia de obsesión para buena parte de los usuarios de la red en los últimos meses. Y es que estas plataformas parece que simplemente no tienen freno alguno.
Hemos visto cómo ha evolucionado este modelo de lenguaje a un grado tan avanzado y agresivo que poco a poco da la impresión de que podría estar más cerca de convertirse en un sistema que casi es consciente por sí mismo y que por lo tanto no requeriría de una instrucción directa para pensar y activarse.
Ya hemos hablado del caso de Steve Wozniak, Elon Musk y otros especialistas que han pedido ponerle un freno a la alimentación de estos sistemas para enfocarse en la creación de medidas de seguridad y candados regulatorios preventivos en caso de que algo malo suceda con la AI.
Pero francamente a esta altura no parece que esto vaya a suceder, mientras tanto los usuarios se mantienen utilizando la plataforma de OpenAI, para encontrar algunos usos tal vez no tan adecuados, propios o éticos.
El lado oscuro de ChatGPT: todo esto se puede hacer aunque tal vez no se debería
La Inteligencia Artificial conversacional de ChatGPT puede ser una gran herramienta de trabajo y es capaz de incrementar la productividad de cualquiera de manera exponencial.
Sí, se pueden hacer muchas cosas con este sistema, pero igual esta IA puede ser usada para fines maliciosos. Estos son algunos de los ejemplos de lo que ChatGPT ha hecho o puede hacer, pero no debería:
- Se puede programar código malicioso o defectuoso, aprovechando su capacidad para desarrollar juegos, extensiones y aplicaciones, lo que da pie al uso de vulnerabilidades o el desarrollo de piezas que faciliten el acceso de malware para robar datos.
- ChatGPT puede ser cómplice de estafas por correo electrónico o redes sociales, generando mensajes muy convincentes y personalizados para engañar a las víctimas y obtener su dinero o información personal.
- La Inteligencia Artificial puede ser explotada para generar contenido ofensivo o simplemente falso. Los insultos, amenazas, noticias falsas o deepfakes son más fáciles que nunca debido a ChatGPT y es muy difícil ahora distinguir lo falso de lo real, como sucedió hace poco con la ropa a la moda del Papa.
- A nivel más “inofensivo” se puede usar la AI para realizar labores que debería hacer individualmente cada sujeto, como escribir tareas, ensayos o trabajos escolares, ayudando a los estudiantes a cumplir con sus obligaciones en una fracción de tiempo. Pero esta estrategia también fomenta el plagio y propicia que no exista un verdadero aprendizaje.
Al final ChatGPT es una herramienta brutal. Pero en realidad su desarrollo, alimentación y uso es cero transparente. Lo que la vuelve peligrosa en las manos menos adecuadas.