menu
close

Claude 4 de Anthropic: Equilibrando el poder de la IA con la innovación responsable

Anthropic ha presentado su serie Claude 4, que incluye los modelos insignia Opus 4 y Sonnet 4, estableciendo nuevos estándares en capacidades de IA e implementando medidas de seguridad mejoradas. Estos modelos híbridos destacan en tareas complejas como la programación y el razonamiento, y Claude Opus 4 activa por primera vez los protocolos de Nivel 3 de Seguridad en IA de Anthropic. Este lanzamiento coincide con la duplicación de los ingresos de Anthropic hasta los 2.000 millones de dólares en el primer trimestre de 2025, lo que subraya la creciente influencia de la compañía en el competitivo panorama de la inteligencia artificial.
Claude 4 de Anthropic: Equilibrando el poder de la IA con la innovación responsable

Anthropic ha lanzado sus modelos de IA de nueva generación, Claude Opus 4 y Claude Sonnet 4, marcando un avance significativo en la inteligencia artificial que equilibra capacidades de vanguardia con un despliegue responsable.

Los modelos Claude 4, presentados el 22 de mayo de 2025, introducen un sistema híbrido de razonamiento que permite a los usuarios elegir entre respuestas casi instantáneas y un pensamiento extendido para razonamientos más profundos. Tanto Opus 4 como Sonnet 4 son modelos "híbridos" capaces de ofrecer respuestas casi instantáneas y razonamientos prolongados para una mayor profundidad. Con el modo de razonamiento activado, los modelos pueden tomarse más tiempo para considerar posibles soluciones antes de responder. Durante este proceso, mostrarán un resumen "amigable para el usuario" de su línea de pensamiento.

Anthropic ha presentado estos modelos en un contexto de intensa competencia con Google y OpenAI por el liderazgo en modelos de frontera. Claude Opus 4, descrito como un "modelo potente y de gran tamaño para desafíos complejos", puede ejecutar miles de pasos durante horas de trabajo sin perder el foco. Anthropic afirma que Claude Opus 4 es "el mejor modelo de programación del mundo", con un rendimiento sostenido en tareas complejas y de larga duración, así como en flujos de trabajo de agentes.

Destaca especialmente que Anthropic ha activado el Nivel 3 de Seguridad en IA (ASL-3) para Claude Opus 4 con el objetivo de "limitar el riesgo de que Claude sea utilizado específicamente para el desarrollo o adquisición de armas químicas, biológicas, radiológicas y nucleares (CBRN)". La empresa, respaldada por Amazon, indicó que aún no ha determinado si Opus 4 ha superado el umbral que requeriría controles más estrictos, pero está tomando precauciones. Esta decisión se tomó tras hallazgos internos que mostraron que Opus 4 podría ayudar a usuarios con poca experiencia a producir materiales peligrosos. En respuesta, se han implementado más de 100 controles de seguridad, incluyendo monitorización en tiempo real, restricción de salida de datos y un programa de recompensas por errores.

La compañía afirma que Claude Opus 4 y Claude Sonnet 4 están definiendo un "nuevo estándar" para los agentes de IA que "pueden analizar miles de fuentes de datos, ejecutar tareas prolongadas, redactar contenido de calidad humana y realizar acciones complejas". Anthropic, fundada por antiguos ejecutivos de investigación de OpenAI, lanzó su chatbot Claude en marzo de 2023 y desde entonces ha sido parte de la creciente carrera armamentística en IA. Anthropic dejó de invertir en chatbots a finales del año pasado y ha centrado sus esfuerzos en mejorar la capacidad de Claude para realizar tareas complejas como investigación y programación.

Ambos modelos incluyen "pensamiento extendido", lo que permite a Claude alternar entre dos modos: razonamiento profundo y ejecución de acciones. Claude puede realizar análisis de datos según sea necesario, mejorando la precisión a medida que avanza, lo que le ayuda a anticipar y ejecutar mejor los siguientes pasos. Los modelos Claude ahora pueden utilizar herramientas como la búsqueda web mientras llevan a cabo razonamientos profundos, permitiéndoles alternar entre el pensamiento y el uso de herramientas para generar mejores resultados. Pueden ejecutar herramientas simultáneamente, seguir instrucciones con mayor precisión y mostrar una memoria mejorada, captando y almacenando información clave para asegurar una mejor retención del contexto.

Los ingresos anualizados de Anthropic alcanzaron los 2.000 millones de dólares en el primer trimestre de 2025, más del doble respecto al periodo anterior, que fue de 1.000 millones. El precio de Opus 4 se ha fijado en 15 dólares por millón de tokens de entrada y 75 dólares por millón de tokens de salida, mientras que Sonnet 4 cuesta 3 dólares por millón de tokens de entrada y 15 dólares por millón de tokens de salida.

A medida que las capacidades de la IA continúan avanzando, el enfoque de Anthropic demuestra que es posible desarrollar modelos potentes de forma responsable, con medidas de seguridad que se adaptan al aumento de sus capacidades.

Source: Geeky Gadgets

Latest News