
Insertan un fragmento de ADN humano en ratones y les crece el cerebro
mayo 16, 2025
Así luce la primera llamarada de radiación detectada alrededor del agujero negro en el centro de nuestra galaxia
mayo 16, 2025Tras un mes de gestación con acceso limitado vía API, el nuevo GPT-4.1 entra oficialmente en ChatGPT, ahora disponible para los usuarios con planes de pago Plus, Pro y Team. OpenAI explica que los usuarios de la versión gratuita están excluidos de esta implementación. El acceso para Enterprise y Edu llegará en las próximas semanas.
Según la compañía, tanto GPT-4.1 como su versión mini están optimizados para tareas de codificación y seguimiento de instrucciones, superando a GPT-4o y 4o mini en todos los aspectos.

OpenAI está lanzando una experiencia de compra dentro de ChatGPT, con selección de productos y botones para adquirirlos. WIRED habló con Adam Fry, jefe de producto de búsqueda de la empresa, para preguntarle cómo funciona todo.
¿Qué hay de nuevo en GPT-4.1?
A la espera de que OpenAI se decida por fin a cambiar el estilo de su nomenclatura, cada vez más compleja y ciertamente confusa, el nuevo modelo GPT-4.1 ofrece la posibilidad de generar código con mayor eficiencia y precisión, siguiendo las distintas tareas y pasos de forma más estrecha y diligente. La gigante tecnológica liderada por Sam Altman también presenta un modelo más pequeño, llamado GPT-4.1 mini, que es una evolución de GPT-4o mini, diseñado para una interacción más rápida y sencilla, con promesas de mayor eficiencia y precisión en las respuestas.
Ambos modelos admiten una ventana de contexto de un millón de tokens, superando ampliamente los 128,000 tokens de GPT-4o. OpenAI afirma que las mejoras de velocidad hacen que GPT-4.1 sea más atractivo para tareas de codificación cotidianas, en comparación con los potentes modelos de razonamiento OpenAI o3 y o4-mini.
Las mejoras de GPT-4.1 están enfocadas en iteraciones más técnicas, lo que permitiría al modelo comprender mejor las tareas con menos esfuerzo por parte del usuario, minimizando repeticiones o aclaraciones para lograr los objetivos planificados. Se estima que GPT-4.1 es un 40% más rápido que GPT-4o, con una reducción del 80% en el uso de recursos por solicitud.
Durante la presentación del mes pasado, Varun Mohan, CEO de Windsurf, empresa adquirida por OpenAI para impulsar la creación de herramientas autónomas para desarrolladores, declaró que su compañía había experimentado una mejora global del 60% respecto al pasado. La combinación de capacidades avanzadas de IA en ChatGPT con la interfaz intuitiva de Windsurf hace que el uso de herramientas sea un 30% más eficiente y que el modelo sea un 50% menos propenso a repetir ediciones innecesarias, lo que se traduce en respuestas más rápidas y flujos de trabajo más fluidos.

Los usuarios están utilizando el nuevo generador de imágenes de OpenAI para formar parte de las tendencias virales de redes sociales. Pero su uso pone en riesgo la privacidad, a menos que se tomen unas sencillas medidas de contención.
¿Cómo acceder a GPT-4.1?
Para acceder a GPT-4.1 y GPT-4.1 mini, basta con abrir la página de inicio del servicio, dirigirse al desplegable en la esquina superior izquierda, donde se elige el modelo, y seleccionar «Más modelos». Se abrirá una triple opción que incluye los dos nuevos modelos junto con GPT-4.5, también conocido como «el modelo más grande de la historia», actualmente en fase de preestreno.
Los desarrolladores tuvieron acceso anticipado a GPT‑4.1, GPT‑4.1 mini y GPT‑4.1 nano. No obstante, gracias a las mejoras en eficiencia, estos modelos se han extendido a los usuarios de pago. Se espera que más adelante estén disponibles también para usuarios gratuitos, una vez se complete el despliegue en los planes Enterprise y Edu, como ha ocurrido en ocasiones anteriores.
En un comunicado, OpenAI señaló que los precios de la serie GPT‑4.1 son un 26% más bajos que los de GPT‑4o para consultas medianas. «Para las consultas que repiten el mismo contexto, aumentamos el descuento por caché de solicitudes al 75%, en comparación con el 50% anterior. Por último, ofrecemos solicitudes de contexto largo sin coste adicional, más allá del precio estándar por token«.
Artículo originalmente publicado en WIRED Italia. Adaptado por Alondra Flores.




