El concepto de d/acc (aceleración defensiva descentralizada) ha ganado mucha fuerza recientemente, destacando un aspecto crítico pero a menudo pasado por alto del desarrollo de la IA: la rendición de cuentas a través de tecnologías criptográficas. Si bien poseemos las bases técnicas para crear sistemas de IA responsables, enfrentamos un desafío familiar que ejemplifica perfectamente por qué necesitamos d/acc: la brecha entre tener soluciones y lograr una adopción generalizada.
El Estado Actual: Una Historia de dos Realidades
La realidad actual presenta un marcado contraste. Por un lado, tenemos avances revolucionarios en tecnologías criptográficas (zkML, MPC y otras innovaciones surgen periódicamente de los laboratorios de investigación y prometen hacer que los sistemas de IA sean más responsables y verificables). Por otro lado, estas soluciones siguen siendo en gran medida teóricas y no logran alcanzar la escala y la velocidad necesarias para tener un impacto significativo en el mundo real.
El problema central no son las limitaciones tecnológicas, sino una compleja interacción entre la dinámica del mercado y la percepción pública. Si bien el desarrollo de la IA general atrae inversiones masivas debido a su claro camino hacia la monetización a través de productos y servicios, las medidas defensivas y la infraestructura de rendición de cuentas tienen dificultades para atraer fondos a pesar de su importancia crítica. La mayoría de los usuarios y organizaciones consideran que la rendición de cuentas por la IA es importante pero difícil de monetizar, lo que conduce a una grave subinversión en estas tecnologías de protección. Esto crea un ciclo preocupante:
Inversión limitada en infraestructura de rendición de cuentas
Progreso tecnológico retrasado
Desarrollo más lento de soluciones eficientes
Perspectivas de adopción aún menos atractivas
La Paradoja de la Ciencia Ficción
Tal vez la mayor ironía resida en cómo la ciencia ficción ha moldeado la percepción pública. Si bien innumerables libros y películas han explorado escenarios de IA descontrolada, han socavado inadvertidamente los debates serios sobre la responsabilidad de la IA. Estas narrativas, en lugar de generar una conciencia genuina, han empujado preocupaciones legítimas al ámbito de la ficción.
Aún más irónico es que estas historias a menudo se centraban en el eterno debate entre la IA buena y la mala. Ahora, cuando estamos al borde de una IAG presuntamente beneficiosa, la falta de un debate serio sobre la protección contra usos maliciosos de la IA parece particularmente miope. Los mismos escenarios que llenaron nuestro entretenimiento de alguna manera no se han traducido en una preocupación práctica para los sistemas de IA del mundo real.
Aprendiendo de la Criptografía Post-Cuántica: Un Viaje Paralelo
Nuestra situación actual refleja el panorama de la criptografía post-cuántica (PQC) de hace una década. Hace veinte años, el desarrollo de la PQC avanzaba de forma constante, pero se enfrentaba a una indiferencia generalizada. Pocos entendían o se preocupaban por sus implicaciones para la infraestructura web, a pesar de la existencia de soluciones técnicas viables.
Las tecnologías de IA responsables de la actualidad enfrentan desafíos notablemente similares. Como equipo detrás del primer artículo de zkML que presenta árboles de decisión de conocimiento cero y actual poseedor del récord mundial de velocidad de inferencia de zkML, hemos sido testigos de primera mano de cómo la sobrecarga computacional se convierte en una barrera para la adopción. Al igual que con los primeros candidatos a PQC, tenemos soluciones en funcionamiento que muchos consideran demasiado caras en términos de rendimiento, a pesar de que nuestra solución ha mejorado más de 10,000 veces en los últimos años.
La historia de PQC ofrece una lección crucial: lo que en última instancia impulsó el cambio no fue principalmente la innovación técnica. Los algoritmos básicos se mantuvieron prácticamente sin cambios; un claro ejemplo es el esquema de firma Falcon, que todavía requiere exactamente 666 bytes hoy, lo mismo que hace 8 años. En cambio, los esfuerzos de estandarización del NIST crearon el impulso institucional necesario para la aceptación. Hoy, las organizaciones aceptan fácilmente soluciones PQC con características de rendimiento similares a las que alguna vez se consideraron un factor decisivo. Esta aceptación ahora está llegando a las plataformas blockchain, con Ethereum considerando la implementación de PQC y otros proyectos importantes siguiendo su ejemplo, una clara señal de que la tecnología ha cruzado el umbral de la preocupación teórica a la necesidad práctica.
Sin embargo, imaginamos una trayectoria diferente para Accountable AI. A diferencia de PQC, seguimos logrando avances técnicos importantes cada año. Si mantenemos el impulso, creemos que estas soluciones pueden lograr una adopción mucho más rápida que el cronograma de PQC.
Por Qué No Podemos Esperar: El Imperativo de la d/acc
No podemos permitirnos repetir la curva de adopción de PQC que duró una década. Lo que está en juego con la IA es simplemente demasiado importante. Es precisamente aquí donde el marco d/acc resulta invaluable. Al enfatizar la aceleración de las tecnologías defensivas mientras se mantiene la descentralización, d/acc proporciona un modelo para el avance paralelo tanto de las capacidades técnicas como de la adopción.
Un ejemplo claro de cómo las tecnologías de IA responsables como zkML podrían tener un impacto inmediato es la biodefensa y la atención sanitaria, un ámbito que el movimiento d/acc ha identificado como de importancia crítica para el futuro de la humanidad. Como se ha señalado en recientes debates sobre d/acc, nos enfrentamos a riesgos cada vez mayores derivados de patógenos naturales y artificiales, impulsados por factores como la urbanización, los viajes globales y el avance de la biotecnología. En este contexto, los hospitales podrían realizar diagnósticos de IA con pistas de rendición de cuentas claras: si el sistema de IA comete un error, el hospital puede demostrar que siguió los procedimientos y protocolos adecuados, protegiendo a los profesionales médicos de una responsabilidad indebida y manteniendo al mismo tiempo la privacidad de los datos de los pacientes. Este mismo marco permite que el desarrollo de vacunas aproveche los datos de todo el mundo y, al mismo tiempo, mantenga estrictos controles de privacidad.
Este es solo un ejemplo de una amplia gama de posibles aplicaciones en las que la IA responsable puede brindar beneficios inmediatos y tangibles. Sin embargo, no podemos obtener estos beneficios sin una inversión y una adopción adecuadas.
Nuestro equipo continúa ampliando los límites de zkML, pero la innovación técnica por sí sola no es suficiente. Necesitamos un esfuerzo coordinado que:
Acelera la investigación y el desarrollo para reducir los costos de rendimiento.
Inicia esfuerzos de estandarización de manera temprana, aprendiendo del éxito de PQC
Desarrolla una conciencia práctica desconectada de los escenarios de ciencia ficción.
Crea estructuras de incentivos concretas para adoptar sistemas de IA responsables
Mantiene la descentralización para evitar la concentración del control
Cabe destacar que el camino hacia la adopción difiere entre los ecosistemas Web2 y Web3. En el caso de la Web2, la estandarización y la legislación desempeñan un papel crucial a la hora de impulsar la adopción. En cambio, la adopción de la Web3 depende más de la creación de las estructuras de incentivos adecuadas, una adaptación natural para los sistemas basados en blockchain, donde la alineación económica está incorporada en la arquitectura.
El Camino a Seguir
El marco d/acc no es solo una postura filosófica: es un enfoque práctico para garantizar que el desarrollo de la IA se lleve a cabo de manera segura sin sacrificar el progreso. Necesitamos:
Desarrollar puntos de referencia y estándares para la rendición de cuentas en materia de IA
Crear implementaciones de código abierto de tecnologías clave
Cree herramientas para desarrolladores que faciliten la integración
Establecer consorcios industriales para impulsar la adopción
Colaborar con los responsables de las políticas para crear marcos regulatorios de apoyo
No se trata de prevenir los peores escenarios teóricos, sino de crear sistemas de IA en los que podamos confiar y verificar hoy. Es hora de actuar, antes de que nos encontremos frente a las consecuencias de sistemas de IA que no rinden cuentas a gran escala.
A medida que avanzamos con el desarrollo de la IA, debemos asegurarnos de que no solo estamos haciendo que los sistemas sean más potentes, sino también más responsables. Las bases técnicas existen: nuestro desafío es transformarlas en soluciones ampliamente adoptadas antes de que sea demasiado tarde.