Suno presenta el modelo de IA musical v5.5 con voz personalizada
Suno ha presentado su nuevo modelo de música con inteligencia artificial v5.5 junto con funciones diseñadas para mostrar la individualidad musical.
Suno ha presentado su nuevo modelo de música con inteligencia artificial v5.5 junto con funciones diseñadas para mostrar la individualidad musical.
Google DeepMind está adquiriendo una participación minoritaria en el estudio detrás del MMO espacial EVE Online y planea utilizar el juego para probar modelos de IA. Al mismo tiempo, la desarrolladora CCP Games está recomprándose a su propietario surcoreano Pearl Abyss por 120 millones de dólares —menos que los 225 millones de dólares que Pearl Abyss pagó por el estudio en 2018— y cambiará su nombre a Fenris Creations.
Google ha publicado los Multi-Token Prediction Drafters (MTP) para su familia de modelos de código abierto Gemma 4, diseñados para acelerar la generación de texto hasta tres veces.
OpenAI ha lanzado GPT-5.5, su nuevo modelo insignia de inteligencia artificial, presentado como un salto en capacidades para el trabajo real, la ejecución de tareas complejas y la gestión de agentes de IA.
En teoría, Opus 4.7 de Anthropic mantiene la misma tarifa oficial que Opus 4.6. En la práctica, sin embargo, todo indica que consume una cantidad sensiblemente mayor de tokens por solicitud. Así lo muestran las mediciones publicadas por el desarrollador Abhishek Ray en Claude Code Camp.
El nuevo modelo de código abierto de Google, Gemma 4, puede procesar texto, imágenes y audio completamente de forma local en un smartphone. A través de las llamadas Agent Skills, la IA incluso puede utilizar por sí sola herramientas como Wikipedia o mapas interactivos.
Meta planea lanzar versiones de sus nuevos modelos de inteligencia artificial como código abierto, según Axios. Estos modelos son los primeros desarrollados bajo la dirección de Alexandr Wang, quien se incorporó a Meta en 2025 como parte de un acuerdo cercano a los 15.000 millones de dólares con Scale AI.
El equipo de Bing de Microsoft - sí, en serio - ha publicado como código abierto el modelo de embeddings Harrier. Harrier es compatible con más de 100 idiomas, ofrece una ventana de contexto de 32.000 tokens y fue entrenado con más de dos mil millones de ejemplos, así como con datos sintéticos generados por GPT-5. Según el equipo, Harrier ocupa el puesto número 1 en el benchmark multilingüe MTEB-v2 y, de acuerdo con Microsoft, supera a modelos propietarios de OpenAI y Amazon.
Alibaba ha presentado Qwen3.5-Omni, un modelo de IA omnimodal con comprensión de texto, imagen, audio y video. Según la compañía, supera a Gemini 3.1 Pro en tareas de audio e introduce una nueva capacidad: programar a partir de instrucciones habladas y entrada de video.
Google DeepMind ha presentado Veo 3.1 Lite, su modelo de generación de video más asequible hasta la fecha. El nuevo modelo cuesta menos de la mitad que Veo 3.1 Fast y, según Google, mantiene una velocidad de generación comparable. Sin embargo, la compañía no ha revelado diferencias cualitativas detalladas entre Veo 3.1, Fast y Lite.