|
Posición (Borda) |
Modelo |
Zero-shot |
Parámetros activos (B) |
Parámetros totales (B) |
Dimensión del embedding |
Máx. tokens |
|---|---|---|---|---|---|---|
|
1 |
harrier-oss-v1-27b |
78% |
25.6 |
27.0 |
5376 |
131072 |
|
2 |
KaLM-Embedding-Gemma3-12B-2511 |
73% |
10.8 |
11.8 |
3840 |
32768 |
|
3 |
llama-embed-nemotron-8b |
99% |
7.0 |
7.5 |
4096 |
32768 |
|
4 |
Qwen3-Embedding-8B |
99% |
6.9 |
7.6 |
4096 |
32768 |
|
5 |
gemini-embedding-001 |
99% |
3072 |
2048 |
||
|
6 |
Qwen3-Embedding-4B |
99% |
3.6 |
4.0 |
2560 |
32768 |
|
7 |
Octen-Embedding-8B |
99% |
6.9 |
7.6 |
4096 |
32768 |
|
8 |
F2LLM-v2-14B |
88% |
13.2 |
14.0 |
5120 |
40960 |
|
9 |
F2LLM-v2-8B |
88% |
6.9 |
7.6 |
4096 |
40960 |
|
10 |
harrier-oss-v1-0.6b |
78% |
0.440 |
0.596 |
1024 |
Además del gran modelo de 27 mil millones de parámetros, existen dos variantes más pequeñas (0.6B y 270M) para hardware más modesto. Todos los modelos están disponibles en Hugging Face bajo la licencia MIT. El equipo planea integrar esta tecnología en Bing y en nuevos servicios de grounding para agentes de IA en el futuro.
Los modelos de embeddings se encargan de buscar, recuperar y organizar información para que los sistemas de IA puedan ofrecer respuestas precisas. Según Microsoft, están ganando cada vez más importancia en la era de los agentes de IA, ya que estos deben buscar información de forma independiente, actualizar el contexto a través de múltiples pasos y conservar memoria.
ES
EN