Anthropic, una empresa dirigida por antiguos investigadores de OpenAI, está trazando un rumbo diferente para la inteligencia artificial: desarrollar una IA capaz de saber qué es bueno y qué es malo con una mínima intervención humana.
PUBLICIDAD
De acuerdo con el informe de Decrypt, Claude está diseñada con una “constitución” única, un conjunto de reglas inspiradas en la Declaración Universal de Derechos Humanos, diseñadas para garantizar un comportamiento ético junto con una funcionalidad sólida, junto con otras normas “éticas”, parecidas a las reglas de Apple para desarrolladores de aplicaciones.
Sin embargo, el concepto de “constitución” puede ser más metafórico que literal. Jared Kaplan, exconsultor de OpenAI y uno de los fundadores de Anthropic, dijo a Wired que la constitución de Claude “podría interpretarse como un conjunto específico de parámetros de entrenamiento, que cualquier entrenador usa para modelar su IA”.
Lo anterior implica un conjunto diferente de consideraciones para el modelo, que alinea más su comportamiento con su constitución y desalienta acciones consideradas problemáticas.
Superior a ChatGPT y Bard
El método de entrenamiento de Anthropic se describe en un artículo de investigación titulado “IA constitucional: inofensividad de la retroalimentación de la IA”, que explica una forma de crear una IA “inofensiva” pero útil que, una vez entrenada, puede mejorar por sí misma sin la retroalimentación humana, identificando comportamientos inadecuados y adaptando su propia conducta.
Anthropic detalla: “Gracias a la IA constitucional y la capacitación en inocuidad, puede confiar en Claude para representar a su empresa y sus necesidades. Claude ha sido entrenada para manejar con gracia incluso a compañeros de conversación desagradables o maliciosos”.
En particular, Claude puede manejar más de 100 mil tokens de información, mucho más que ChatGPT, Bard o cualquier otro modelo de lenguaje grande competente o chatbot de IA actualmente disponible.
En el ámbito de la IA, un token generalmente se refiere a una porción de datos, como una palabra o un carácter, que el modelo procesa como una unidad discreta. La capacidad del token de Claude le permite administrar conversaciones extensas y tareas complejas, lo que lo convierte en una presencia formidable en el panorama de la IA. Para el contexto, podría proporcionar fácilmente un libro completo como mensaje, y sabría qué hacer.