Anthropic: Super-Inteligencia (IA) capaz de acabar con ChatGPT

 

Anthropic es una empresa de investigación y seguridad de Inteligencia Artificial (IA), fundada por ex miembros de OpenAI.

 

Desarrolla sistemas de IA confiables, interpretables y orientables, especializa en el desarrollo de sistemas generales de IA y modelos de lenguaje, con un espíritu e de uso responsable de la IA.

 

Anthropic se dedica a construir sistemas en los que las personas puedan confiar y generar investigaciones sobre las oportunidades y los riesgos de la IA.

 

Con el objetivo de construir sistemas de IA de vanguardia que sean confiables, interpretables y dirigibles.

 

Google ha invertido casi $400 millones en 2022 en la empresa y Anthropic anunció una asociación formal con Google Cloud.

 

Anthropic fue fundada en 2021 por ex altos miembros de OpenAI, principalmente los hermanos Daniela Amodei y Dario Amodei, como vicepresidente de investigación de OpenAI.

 

Daniela Amodei y Dario Amodei han sido importantes miembros de OpenAI.

 

Daniela Amodei trabajó como investigadora senior en OpenAI, donde se enfocó en desarrollar nuevas técnicas de aprendizaje por refuerzo y crear sistemas de Inteligencia Artificial capaces de realizar tareas complejas en ambientes dinámicos.

 

Uno de sus proyectos más destacados fue el desarrollo de un algoritmo de aprendizaje por refuerzo conocido como IMPALA (Importance Weighted Actor-Learner Architecture), que mejoró significativamente el rendimiento de los sistemas de IA en una amplia variedad de tareas.

 

Dario Amodei, por su parte, fue el director de investigación en OpenAI y lideró varios proyectos importantes en la organización.

 

Uno de sus logros más notables fue la creación de GPT-2, un modelo de lenguaje basado en redes neuronales que es capaz de generar texto coherente y convincente.

 

GPT-2 fue uno de los modelos de lenguaje más grandes y avanzados de su época y generó mucha atención en la comunidad de investigación en Inteligencia Artificial.

 

Dario Amodei también trabajó en proyectos de aprendizaje por refuerzo, incluyendo la creación de un algoritmo conocido como Proximal Policy Optimization (PPO), que mejoró significativamente la capacidad de los sistemas de IA para aprender a realizar tareas complejas.

 

Los hermanos Daniela Amodei y Dario Amodei han hecho importantes contribuciones en el ámbito de la Inteligencia Artificial, especialmente en el desarrollo de técnicas de aprendizaje por refuerzo y modelos de lenguaje avanzados.

 

Los hermanos Amodei abandonaron OpenAI debido a diferencias direccionales, respecto a las empresas de OpenAI con Microsoft.

 

Anthropic comenzó a desarrollar su propio chatbot de IA, llamado Claude, compuesto por antiguos investigadores involucrados en ChatGPT de OpenAI y GPT-4.

 

Claude es similar a ChatGPT, usa una interfaz de mensajería donde los usuarios pueden enviar preguntas o solicitudes y recibir respuestas muy detalladas y relevantes.

 

Anthropic también publica investigaciones sobre la interpretabilidad de los sistemas de aprendizaje automático, centrándose en la arquitectura del transformador.

 

Los modelos de IA conversacionales son más precisos en relación a cuanta más información sean capaces de procesar en cada consulta, también llamado contexto ó ventana de contexto, que se miden en tokens.

 

Los tokens son son unidades básicas en las que se divide la información que absorve el modelo.

 

En el contexto de la Inteligencia Artificial y el procesamiento del lenguaje natural, un token es una secuencia de caracteres que se considera una unidad en un texto determinado.

 

Los tokens son los componentes básicos de un modelo de lenguaje y se utilizan para representar el texto de entrada de una manera que pueda ser procesada por una máquina.

 

Por lo general, los tokens se crean al dividir un texto en palabras individuales o en otros elementos, como signos de puntuación y números.

 

En algunos casos, también pueden incluirse otros elementos, como las etiquetas de partes del discurso o los símbolos especiales utilizados en la codificación de caracteres.

 

Los tokens son importantes en muchos aspectos de la Inteligencia Artificial y el procesamiento del lenguaje natural, incluyendo la creación de modelos de lenguaje, la detección de sentimientos y la traducción automática.

 

Al dividir el texto en unidades más pequeñas y manejables, los tokens permiten a los sistemas de IA trabajar con el lenguaje humano de manera más efectiva y precisa.

 

Google Bard tiene un límite de 2K tokens, similar al tope para Bing Chat, GPT-3 y ChatGPT admiten 4K, y GPT-4 trabaja con un límite de 8K, llegando en una versión a los 32K tokens.

 

 

Anthropic tiene como objetivo desarrollar sistemas de Inteligencia Artificial avanzados que sean seguros y beneficiosos para la humanidad.

 

La visión de Anthropic es crear una IA capaz de trabajar en colaboración con los humanos para resolver problemas complejos y urgentes, como el cambio climático, la salud global y la seguridad cibernética.

 

Para lograr esto, la empresa se centra en tres áreas principales:

  • El desarrollo de algoritmos de Inteligencia Artificial seguros y efectivos.
  • La construcción de herramientas para evaluar y garantizar la seguridad de los sistemas de IA.
  • La colaboración con gobiernos, organizaciones sin fines de lucro y empresas para promover un enfoque responsable y beneficioso de la IA.

 

Entre los aspectos destacados aportados por Anthropic al sector de la Inteligencia Artificial se encuentran:

 

Desarrollo de algoritmos de IA más seguros

 

Ha desarrollado varios algoritmos de IA que se han destacado por su capacidad para trabajar de manera colaborativa con los humanos.

Por ejemplo, su modelo de IA para el aprendizaje por refuerzo, conocido como Neuro-Symbolic Reinforcement Learning, combina técnicas de aprendizaje por refuerzo con el conocimiento simbólico para mejorar la capacidad de los sistemas de IA para trabajar en tareas complejas y dinámicas.

 

Creación de herramientas de evaluación de seguridad de IA

 

Ha desarrollado varias herramientas IA de evaluación de seguridad de IA, como el Marco de Evaluación de Seguridad de IA (AI Safety Evaluation Framework), que ayuda a los desarrolladores a identificar y mitigar riesgos de seguridad y éticos en los sistemas de IA.

 

Colaboración con organizaciones líderes en IA

 

Ha trabajado con organizaciones líderes en IA, como OpenAI y DeepMind, para promover un enfoque responsable y beneficioso de la IA.

Además, ha colaborado con gobiernos y organizaciones sin fines de lucro para abordar los desafíos de seguridad y éticos relacionados con la IA.

 

Anthropic es una empresa de investigación y seguridad en inteligencia artificial que se ha destacado por su enfoque en el desarrollo de sistemas de IA seguros y efectivos que trabajen en colaboración con los humanos.

 

Sus contribuciones han ayudado a impulsar un enfoque más responsable y beneficioso de la IA en la industria y la academia.

 

La ventana de contexto de Claude era de 9K tokens, haciendo posible soportar 100k tokens, en un solo prompt se pueden introducir 75.000 palabras, también válido para audio y código.

 

 

Referencias;

www.anthropic.com

chat.openai.com

Imagen; Midjourney

 

error: Alert: Este contenido está Protegido © !!