Categoría: Análisis
Javier Morales
Share
Listen On

La inteligencia artificial podría actuar como un juez integrado directamente en la blockchain dentro de los mercados de predicción, según Andrew Hall, profesor de economía política en la Escuela de Negocios de la Universidad de Stanford.

Hall ilustró el problema de la resolución “justa” de disputas utilizando el ejemplo de las elecciones presidenciales de Venezuela.

a16z crypto
a16z crypto

El año pasado se realizaron contratos por un valor superior a 6 millones de dólares sobre el resultado electoral. Sin embargo, tras la votación, el mercado quedó sumido en la incertidumbre:

  • el gobierno declaró vencedor a Nicolás Maduro;

  • la oposición y los observadores internacionales denunciaron fraude generalizado.

«¿Deben liquidarse los contratos del mercado de predicción según la información “oficial” (victoria de Maduro) o según el “consenso de informes creíbles” (victoria de la oposición)?», se preguntó Hall.

Este no es un caso aislado, señaló el experto. En otro episodio, alguien habría manipulado mapas de Ucrania relacionados con una disputa territorial.

Hall sostiene que es fundamental crear un sistema de resolución de disputas justo y digno de confianza. Solo entonces los precios de estos mercados podrán convertirse en señales significativas para la sociedad.

El problema va más allá de los mercados de predicción

Desafíos similares afectan a los mercados financieros. Durante años, la Asociación Internacional de Swaps y Derivados (ISDA) ha lidiado con problemas de liquidación en los swaps de incumplimiento crediticio (CDS), contratos que pagan en caso de quiebra de una empresa o país.

Los comités de decisión votan si se ha producido un evento crediticio, pero el proceso es criticado con frecuencia por su falta de transparencia, posibles conflictos de interés y resultados inconsistentes.

«El problema fundamental sigue siendo el mismo: cuando grandes sumas dependen de definir qué ocurrió en situaciones ambiguas, cualquier mecanismo de liquidación se convierte en un objetivo de manipulación, y la ambigüedad en un foco de controversia», afirmó Hall.

Propiedades clave de una solución eficaz

El experto identificó varias características esenciales que debe tener cualquier sistema viable:

  • Resistencia a la manipulación: si el veredicto puede alterarse editando Wikipedia, difundiendo noticias falsas, sobornando oráculos o explotando vacíos legales, el mercado se convierte en un juego ganado por el mejor manipulador.

  • Precisión razonable: aunque la exactitud perfecta es imposible, el mecanismo debe acertar en la mayoría de los casos y evitar errores sistemáticos.

  • Transparencia: los participantes deben comprender claramente cómo se toman las decisiones.

  • Neutralidad: el sistema no debe favorecer a ningún usuario ni resultado concreto.

Los comités formados por personas pueden cumplir algunas de estas condiciones, pero siguen siendo vulnerables a la manipulación y no garantizan una verdadera neutralidad.

La IA como solución

Hall propone utilizar modelos de lenguaje a gran escala (LLM) como jueces automáticos, con cada modelo y su prompt registrados de forma permanente en la blockchain en el momento de crear el contrato.

La arquitectura básica funciona así:

  • Al crear el contrato, el creador del mercado especifica los criterios de resolución en lenguaje natural, junto con el LLM elegido y el prompt exacto.

  • Esta especificación se registra criptográficamente en la blockchain.

  • Cuando comienza la negociación, los participantes pueden revisar todo el mecanismo y saber exactamente cómo el modelo accede a las fuentes de información y emite su veredicto.

Este método resuelve varios problemas clave:

  • Resistencia a la manipulación: los resultados de los LLM son difíciles de alterar sin modificar las fuentes de información subyacentes.

  • Precisión: la IA puede rastrear rápidamente grandes volúmenes de datos en línea.

  • Transparencia: todo el proceso es verificable y no permite cambios de reglas ni decisiones subjetivas.

  • Neutralidad: los LLM no tienen intereses financieros ni pueden ser sobornados.

No obstante, persisten limitaciones. La IA puede cometer errores, malinterpretar artículos o generar datos incorrectos.

La manipulación no es imposible, solo más difícil: actores maliciosos podrían intentar plantar información falsa en grandes medios, algo costoso pero factible.

También existe el riesgo de ataques a los datos de entrenamiento, aunque estos tendrían que producirse mucho antes de la creación del contrato.

Conclusión

La resolución basada en IA sustituye un conjunto de problemas por otro más manejable. Hall cree que las plataformas deberían experimentar activamente con distintos LLM para adquirir experiencia práctica.

A medida que surjan mejores prácticas, la comunidad deberá avanzar hacia la estandarización de configuraciones de IA, lo que ayudará a concentrar la liquidez y mejorar la eficiencia general del mercado.

Senior AI Research Analyst
Javier Morales es investigador y analista senior en inteligencia artificial con base en España. Su trabajo se centra en el estudio de modelos de IA a gran escala, su integración en infraestructuras empresariales y las implicaciones económicas y sociales de su adopción. Ha analizado en profundidad las estrategias de las principales compañías tecnológicas, así como el impacto de la inteligencia artificial en productividad, gobernanza digital y comportamiento de los usuarios. Sus publicaciones se caracterizan por un enfoque analítico, basado en datos y orientado a la evaluación crítica de tecnologías emergentes.