La Secretaria encargada de la Protección de los Datos Personales de Italia ha ordenado el bloqueo inmediato de la aplicación china de inteligencia artificial DeepSeek en las tiendas de aplicaciones del país. Una decisión que se toma a consecuencia de que la empresa china no respondiera a las solicitudes de información sobre el tratamiento de datos personales por parte de su IA.
También te podría interesar: [¿DeepSeek fue entrenado por OpenAI? Al parecer, hay evidencia]
Por si pareciera poco, el Congreso de EEUU ha prohibido a sus trabajadores el uso de DeepSeek, según informó Axios. La Oficina Administrativa del Congreso advirtió a los empleados que no está autorizado para su uso oficial en la Cámara de Representantes pues se detectaron personas que utilizan esta IA para distribuir software malicioso.
Tanto Italia como EEUU han expresado serias preocupaciones sobre la privacidad y seguridad de los datos de los usuarios de DeepSeek. El regulador de la privacidad de Italia ha abierto una investigación sobre el uso de datos por parte de DeepSeek y ha exigido a la empresa china que explique qué tipo de información utiliza para entrenar su IA.
La empresa china no ha respondido satisfactoriamente a las preguntas del regulador italiano, lo que ha llevado al bloqueo de la aplicación en Italia. El Congreso de EEUU también ha tomado medidas para restringir la funcionalidad de DeepSeek en los dispositivos emitidos por la institución y ha prohibido a los empleados instalar la aplicación en teléfonos, computadoras o tabletas oficiales.
También te podría interesar: [OpenAI lanzó una versión de ChatGPT solo para gobiernos: Este es el motivo]
Estas acciones tomadas por Italia y EEUU contra DeepSeek surgen como consecuencia de la creciente preocupación mundial sobre el uso de la inteligencia artificial y la necesidad de establecer normas claras para proteger la privacidad y seguridad de los datos de los usuarios. El futuro de la IA dependerá de la capacidad de los gobiernos y las empresas para abordar estas preocupaciones y garantizar que la IA se utiliza de manera responsable y ética.