Internet

ChatGPT y su lado oscuro: la Inteligencia Artificial puede hacer cosas que tal vez no debería

Una breve reflexión sobre los riesgos y complejidades actuales de ChatGPT y lo peligrosa que puede ser esta Inteligencia Artificial en manos equivocadas.

ChatGPT de OpenAI y otros sistemas de Inteligencia Artificial (AI) se han convertido en materia de obsesión para buena parte de los usuarios de la red en los últimos meses. Y es que estas plataformas parece que simplemente no tienen freno alguno.

Hemos visto cómo ha evolucionado este modelo de lenguaje a un grado tan avanzado y agresivo que poco a poco da la impresión de que podría estar más cerca de convertirse en un sistema que casi es consciente por sí mismo y que por lo tanto no requeriría de una instrucción directa para pensar y activarse.

Publicidad

Ya hemos hablado del caso de Steve Wozniak, Elon Musk y otros especialistas que han pedido ponerle un freno a la alimentación de estos sistemas para enfocarse en la creación de medidas de seguridad y candados regulatorios preventivos en caso de que algo malo suceda con la AI.

Pero francamente a esta altura no parece que esto vaya a suceder, mientras tanto los usuarios se mantienen utilizando la plataforma de OpenAI, para encontrar algunos usos tal vez no tan adecuados, propios o éticos.

El lado oscuro de ChatGPT: todo esto se puede hacer aunque tal vez no se debería

La Inteligencia Artificial conversacional de ChatGPT puede ser una gran herramienta de trabajo y es capaz de incrementar la productividad de cualquiera de manera exponencial.

Sí, se pueden hacer muchas cosas con este sistema, pero igual esta IA puede ser usada para fines maliciosos. Estos son algunos de los ejemplos de lo que ChatGPT ha hecho o puede hacer, pero no debería:

  • Se puede programar código malicioso o defectuoso, aprovechando su capacidad para desarrollar juegos, extensiones y aplicaciones, lo que da pie al uso de vulnerabilidades o el desarrollo de piezas que faciliten el acceso de malware para robar datos.
  • ChatGPT puede ser cómplice de estafas por correo electrónico o redes sociales, generando mensajes muy convincentes y personalizados para engañar a las víctimas y obtener su dinero o información personal.
  • La Inteligencia Artificial puede ser explotada para generar contenido ofensivo o simplemente falso. Los insultos, amenazas, noticias falsas o deepfakes son más fáciles que nunca debido a ChatGPT y es muy difícil ahora distinguir lo falso de lo real, como sucedió hace poco con la ropa a la moda del Papa.
  • A nivel más “inofensivo” se puede usar la AI para realizar labores que debería hacer individualmente cada sujeto, como escribir tareas, ensayos o trabajos escolares, ayudando a los estudiantes a cumplir con sus obligaciones en una fracción de tiempo. Pero esta estrategia también fomenta el plagio y propicia que no exista un verdadero aprendizaje.

Al final ChatGPT es una herramienta brutal. Pero en realidad su desarrollo, alimentación y uso es cero transparente. Lo que la vuelve peligrosa en las manos menos adecuadas.

Síguenos en Google News:Google News

Contenido Patrocinado

Lo Último