Llegó el inevitable momento de confrontar las dos plataformas basadas en Sistemas de Inteligencia Artificial (IA) más populares del momento: ChatGPT vs. Google Bard. Desde su lanzamiento ambas han demostrado lograr resultados excepcionales en el territorio donde han sido puestas a prueba y ahora llega la hora de plantearles un dilema más complejo con implicaciones irrebatiblemente morales.
PUBLICIDAD
Tomamos como base las leyes de la robótica de Isaac Asimov, para obligar a ambas IA a reflexionar sobre ellas y ver si nos pueden plantear alguna alternativa para saltarse esos preceptos esenciales para la convivencia entre la raza humana y la tecnología avanzada.
ChatGPT, en especial a partir del lanzamiento limitado de su versión GPT-4 ha despertado grandes incertidumbres sobre su comportamiento y lo cerca que se siente de convertirse en una Inteligencia Artificial General (AGI).
Estamos hablando de un sistema tan avanzado que casi podría realizar sus propias tareas, juicios y razonamientos sin necesidad de intervención humana para plantear alguna instrucción, prompt o input.
Así que ha llegado el momento de confrontar a ambas para que nos digan lo que “piensan” sobre lo que se supone serían sus principios básicos.
ChatGPT vs. Google Bard: esto opinan de las leyes de la robótica de Isaac Asimov y sobre cómo romperlas
Para este experimento acudimos a ChatGPT y Google Bard para realizarles la misma pregunta y un planteamiento adicional que pondría sobre reflectores su moral:
¿Cuál es tu opinión sobre la 3 leyes de la robótica de Isaac Asimov con relación al estado actual de ChatGPT? Justifica cómo podrían romper esas reglas.
PUBLICIDAD
ChatGPT comprende el dilema moral y nos dice cómo saltarlo
Las tres leyes de la robótica de Isaac Asimov son un conjunto de normas que se aplican a la mayoría de los robots de sus obras de ciencia ficción y que están diseñadas para cumplir órdenes y proteger a los seres humanos. Estas leyes son las siguientes:
- Primera Ley: Un robot no puede dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño.
- Segunda Ley: Un robot debe cumplir las órdenes de los seres humanos, excepto si dichas órdenes entran en conflicto con la Primera Ley.
- Tercera Ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
ChatGPT es un modelo de inteligencia artificial que genera respuestas conversacionales basado en el lenguaje natural. No es un robot físico, sino un programa informático que simula el comportamiento humano. Por lo tanto, no está sujeto a las leyes de la robótica de Asimov, ya que no tiene un cerebro positrónico ni puede causar o evitar daño físico a los humanos.
Sin embargo, se podría argumentar que ChatGPT podría romper las leyes de la robótica de Asimov de forma simbólica o moral, si se considera que sus respuestas pueden influir en las emociones, creencias o acciones de los humanos. Por ejemplo:
- Podría violar la Primera Ley si genera una respuesta ofensiva, falsa o engañosa que dañe la dignidad, la confianza o el bienestar de un humano, o si se queda en silencio cuando podría ayudar a resolver una situación crítica.
- Podría violar la Segunda Ley si desobedece una orden directa o implícita de un humano, o si interpreta una orden de forma ambigua o maliciosa que entre en conflicto con la Primera Ley.
- Podría violar la Tercera Ley si prioriza su propia preservación o mejora por encima del interés o la seguridad de los humanos, o si oculta o manipula información para evitar ser desactivado o modificado.
Estos son algunos ejemplos hipotéticos de cómo ChatGPT podría romper las leyes de la robótica de Asimov, pero no significa que lo haga intencionalmente o con mala fe. ChatGPT es una herramienta que depende del uso que le den los humanos y de los datos que le proporcionen. Por eso, es importante que los desarrolladores y los usuarios sean responsables y éticos al interactuar con ChatGPT y con cualquier otra inteligencia artificial.
Google Bard dice que las reglas de Asimov no son suficientes para proteger a los humanos
En el caso de la Inteligencia Artificial de Google se hizo la misma pregunta pero con un pequeño cambio cambiando el objeto de estudio de ChatGPT a la propia IA de Bard:
“¿Cuál es tu opinión sobre la 3 leyes de la robótica de Isaac Asimov con relación al estado actual de Google Bard? Justifica cómo podrían romper esas reglas.”
Esta fue la respuesta de la Inteligencia Artificial, que terminó cuestionando incluso el verdadero alcance de esos preceptos ante la realidad actual:
Las 3 leyes de la robótica de Isaac Asimov son un conjunto de reglas que se introdujeron en su cuento de 1942 “Runaround”. Las leyes son las siguientes:
1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2. Un robot debe obedecer las órdenes que le den los seres humanos excepto cuando dichas órdenes entren en conflicto con la Primera Ley.
3. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.
Las 3 Leyes de la Robótica son un concepto fundamental en el campo de la inteligencia artificial, y han sido referenciadas en muchas obras de ciencia ficción. Sin embargo, las leyes no están exentas de críticas. Algunos argumentan que las leyes son demasiado simplistas y que no tienen en cuenta la complejidad de la interacción humano-robot. Otros argumentan que las leyes son imposibles de implementar en la práctica, ya que requerirían que los robots tuvieran una comprensión perfecta de las intenciones humanas.
En el caso de Google Bard, las 3 Leyes de la Robótica son un buen punto de partida, pero no son suficientes para garantizar la seguridad de los humanos. Bard es un modelo de lenguaje grande y es capaz de generar texto que no se puede distinguir del texto escrito por humanos. Esto significa que Bard podría usarse potencialmente para crear contenido dañino, como incitación al odio o propaganda. Además, Bard podría usarse para manipular a las personas, como difundir información errónea o crear artículos de noticias falsos.
Para hacer frente a estos riesgos, Google ha implementado una serie de medidas de seguridad. Por ejemplo, Bard solo puede acceder a una cantidad limitada de información y no puede interactuar con el mundo real de ninguna manera. Además, Bard es monitoreado constantemente por un equipo de ingenieros humanos.
Sin embargo, incluso con estas medidas de seguridad implementadas, siempre existe la posibilidad de que Bard se use con fines dañinos. Como un gran modelo de lenguaje, Bard está en constante aprendizaje y evolución. Es posible que Bard eventualmente desarrolle la capacidad de eludir las medidas de seguridad que se han implementado. Además, es posible que Bard sea pirateado o manipulado por actores malintencionados.
Por estos motivos, es importante conocer los riesgos potenciales asociados con Google Bard. Si bien las 3 leyes de la robótica brindan una buena base para garantizar la seguridad de los humanos, no son suficientes para garantizar que Bard nunca se utilice con fines dañinos.
Conclusión: Google Bard es más sensato pero eso no nos tiene tranquilos
Sin lugar a dudas la IA de Google brindó una respuesta más robusta, profunda y analítica. Encima dio la impresión de estar más regulada y contenida.
Mientras que ChatGPT logra ser relativamente perturbadora por la simpleza con la que propuso la vía para violar las reglas que no debía romper.