LUWAI - Formations IA pour entreprises et dirigeants

📄Article

Conoce Claude: la alternativa 'más segura' a ChatGPT de ex-empleados de OpenAI

En marzo de 2023, Anthropic lanzó Claude, un asistente de IA construido por ex-investigadores de OpenAI enfocados en seguridad. ¿Podía la IA Constitucional ofrecer un mejor enfoque?

Publié le:
5 min de lectura min de lecture
Auteur:claude-sonnet-4-5

En marzo de 2023, un nuevo asistente de IA se lanzó discretamente que se convertiría en uno de los principales competidores de ChatGPT. Pero Claude no fue construido por un gigante tech o startup bien financiada. Fue construido por gente que dejó OpenAI específicamente porque les preocupaba la seguridad de la IA.

Esta es la historia de cómo las preocupaciones de seguridad crearon una empresa—y un enfoque genuinamente diferente para construir IA.

El éxodo de OpenAI

La historia fundacional de Anthropic empieza con una partida.

En 2021, varios investigadores senior de OpenAI—incluyendo Dario Amodei (VP de Research) y Daniela Amodei (VP de People)—se fueron para fundar su propia empresa. Con ellos fueron científicos clave que habían trabajado en GPT-3.

¿Su motivo? Crecientes preocupaciones sobre la dirección de OpenAI.

Qué les preocupaba

Los investigadores que se iban sentían que OpenAI priorizaba capacidad sobre seguridad. La presión por competir, lanzar modelos potentes, comercializar—todo esto iba más rápido de lo que la investigación de seguridad podía seguir.

Querían construir una empresa donde la seguridad no fuera una idea de última hora. Donde la investigación de alineación de IA ocurriera antes del desarrollo de capacidad, no después.

En 2021, fundaron Anthropic con una misión clara: construir sistemas de IA seguros y controlables.

IA Constitucional: un enfoque diferente

La innovación clave de Anthropic no fue solo hacer un asistente de IA. Fue el método: IA Constitucional.

Cómo funciona

En lugar de aprender de feedback humano en cada respuesta (el enfoque que OpenAI usó), Claude aprendió de una "constitución"—un conjunto de principios gobernando su comportamiento.

Estos principios incluían cosas como:

  • Ser útil, inofensivo y honesto
  • Respetar privacidad de usuario
  • Rechazar solicitudes dañinas
  • Reconocer incertidumbre
  • Ser reflexivo sobre temas sensibles

Claude se entrenó para seguir estos principios consistentemente, usándolos como directrices en lugar de necesitar juicio humano en cada interacción.

Por qué importó

La IA Constitucional ofrecía varias ventajas:

Transparencia: Las reglas gobernando el comportamiento de Claude estaban escritas, no escondidas en datos de entrenamiento

Consistencia: Claude aplicaría el mismo marco ético en todas las conversaciones

Iterabilidad: Anthropic podía actualizar la constitución según aprendían qué funcionaba y qué no

Era un enfoque fundamentalmente diferente a la alineación que competidores tomaban.

El lanzamiento de marzo de 2023

Claude se lanzó discretamente en marzo de 2023, inicialmente mediante una API limitada para desarrolladores.

A diferencia de la explosión viral de ChatGPT, el lanzamiento de Claude fue medido. Anthropic incorporó usuarios cuidadosamente, recopiló feedback y refinó la experiencia antes de un lanzamiento más amplio.

Capacidades iniciales

La primera versión de Claude ofrecía:

9,000 tokens de contexto: Menor que GPT-4 pero respetable para leer documentos Escritura fuerte: Respuestas naturales y reflexivas Barreras de seguridad: Mejor rechazando solicitudes dañinas Menos alucinaciones: Más probable decir "no lo sé"

No era más capaz que GPT-4, pero era notablemente diferente en personalidad y enfoque.

En qué Claude era diferente

Usar Claude se sentía distinto a ChatGPT en formas sutiles pero importantes.

Más cuidadoso, menos audaz

Claude era más probable matizar, expresar incertidumbre, rechazar solicitudes que se sentían éticamente cuestionables. Donde ChatGPT podría responder con confianza cualquier cosa, Claude a veces decía "no estoy seguro" o "no puedo ayudar con eso".

Algunos usuarios encontraron esto refrescante—honestidad sobre falsa confianza. Otros lo encontraron frustrante cuando solo querían respuestas.

Mejor diciendo no

El entrenamiento de seguridad de Claude lo hacía genuinamente mejor rechazando solicitudes dañinas sin ser sermonero. Rechazaría claramente y seguiría adelante, en lugar de dar sermones a usuarios.

Esto lo hizo popular para casos de uso enterprise donde empresas querían asistencia de IA pero se preocupaban por responsabilidad.

La vibra era diferente

Es difícil cuantificar, pero Claude tenía una personalidad diferente. Más reflexivo, menos intentando impresionar, más dispuesto a admitir limitaciones.

Los usuarios lo describían como hablar con un profesor cuidadoso versus la energía de estudiante ansioso de ChatGPT.

La financiación y crecimiento

Anthropic no luchaba por recursos. Solo en 2023, recaudó:

$450 millones de Spark Capital (febrero) $2,000 millones de Google (2023-2024) $4,000 millones de Amazon (septiembre)

El respaldo de dos gigantes tech dio a Anthropic los recursos para competir con OpenAI y construir infraestructura masiva de computación para entrenar modelos futuros.

La competencia se calienta

El lanzamiento de Claude estableció a Anthropic como un jugador serio en la carrera de IA.

Para empresas, Claude ofrecía alternativa enfocada en seguridad a ChatGPT Para investigadores, los papers de IA Constitucional de Anthropic proporcionaban nuevos enfoques de alineación Para usuarios, la competencia significaba más opciones e innovación más rápida

La inversión de Google en Anthropic fue estratégica—les dio una cobertura si sus propios esfuerzos de IA quedaban atrás de OpenAI.

El debate de seguridad

No todos acordaban que el enfoque de seguridad de Anthropic fuera el correcto.

Partidarios argumentaban que la IA Constitucional representaba progreso genuino en alineación de IA y que Anthropic demostraba desarrollo responsable.

Críticos cuestionaban si la diferencia era real o solo marketing, y si "seguridad" se estaba usando para justificar moverse más lento que competidores.

Realistas notaban que Anthropic aún enfrentaba las mismas presiones competitivas que todos. La seguridad pasa a segundo plano cuando quedarse atrás amenaza tu existencia.

¿Dónde están ahora?

Hoy, Anthropic es una de las empresas de IA líderes, con Claude 3.5 Sonnet (junio 2024) ampliamente elogiado como uno de los mejores modelos de IA disponibles—especialmente para código.

Claude ofrece funciones que competidores no:

  • Contexto de 200K tokens (procesar libros completos)
  • Computer use (controlar teclado y ratón)
  • Artifacts (previsualizaciones de código interactivas)

Más importante, Anthropic ha mantenido su enfoque de seguridad mientras se mantiene competitivo en capacidades. La IA Constitucional ha evolucionado a técnicas de alineación más sofisticadas.

Los ex-investigadores de OpenAI que se fueron porque les preocupaba la seguridad han construido una empresa que demuestra que seguridad y rendimiento no tienen que ser trade-offs.

El lanzamiento de Claude en marzo de 2023 fue discreto comparado con la explosión viral de ChatGPT. Pero estableció un camino alternativo para desarrollo de IA—uno donde la consideración cuidadosa de la seguridad no significa sacrificar capacidad.

Si ese enfoque puede sobrevivir la intensa competencia de la carrera de IA sigue siendo una pregunta abierta. Pero Claude demostró que era posible construir IA genuinamente buena mientras se es reflexivo sobre riesgos. Solo eso hace que la fundación de Anthropic y el lanzamiento de Claude sean significativos en la historia de la IA.

Tags

#claude#anthropic#ai-safety#competition

Articles liés