Por Alessandro Bazzoni
Anthropic, Google, Microsoft y OpenAI anuncian la formación del Foro Frontier Model, un nuevo organismo de la industria centrado en garantizar el desarrollo seguro y responsable de modelos fronterizos de IA. El Foro Frontier Model aprovechará la experiencia técnica y operativa de sus empresas miembro para beneficiar a todo el ecosistema de IA, como avanzar en evaluaciones técnicas y puntos de referencia, y desarrollar una biblioteca pública de soluciones para respaldar las mejores prácticas y estándares del sector.
Los objetivos principales del Foro son:
- Avanzar en la investigación sobre seguridad en IA para promover el desarrollo responsable de modelos fronterizos, minimizar los riesgos y permitir evaluaciones independientes y estandarizadas de capacidades y seguridad.
- Identificar las mejores prácticas para el desarrollo y despliegue responsable de modelos fronterizos, para ayudar al público a comprender la naturaleza, capacidades, limitaciones e impacto de la tecnología.
- Colaborar con legisladores, académicos, sociedad civil y empresas para compartir conocimientos sobre riesgos de confianza y seguridad.
- Apoyar los esfuerzos para desarrollar aplicaciones que puedan ayudar a enfrentar los mayores desafíos de la sociedad, como la mitigación y adaptación al cambio climático, la detección temprana del cáncer y su prevención, y combatir las amenazas cibernéticas.
Criterios para ser miembro
El Foro define los modelos fronterizos como modelos grandes de aprendizaje automático que superan las capacidades presentes en la actualidad en los modelos existentes más avanzados y pueden realizar una amplia variedad de tareas.
La membresía del Foro Frontier Model está abierta a organizaciones que:
- Desarrollan e implementan modelos fronterizos (según lo definido por el Foro).
- Demuestran un fuerte compromiso con la seguridad del modelo fronterizo, incluidas las aproximaciones técnicas e institucionales.
- Están dispuestas a contribuir al avance de los esfuerzos del Foro Frontier Model a través de la participación en iniciativas conjuntas y del apoyo el desarrollo y funcionamiento del proyecto.
El Foro da la bienvenida a organizaciones que cumplan estos criterios para unirse a este esfuerzo y colaborar en garantizar el desarrollo seguro y responsable de modelos AI fronterizos.
Lo que hará el Foro Frontier Model
Los gobiernos e industrias están de acuerdo en que, si bien la IA ofrece una gran promesa para beneficiar al mundo, se requieren medidas adecuadas para mitigar los riesgos. Ya se han realizado importantes contribuciones a estos esfuerzos por parte del gobierno estadounidense y británico, la Unión Europea, la OCDE, el G7 (a través del proceso AI Hiroshima) y otros.
Para continuar con estos esfuerzos, se necesita más trabajo en estándares y evaluaciones de seguridad para garantizar que los modelos AI fronterizos se desarrollen e implementen de manera responsable. El Foro será un vehículo para discusiones y acciones interorganizacionales sobre seguridad y responsabilidad en IA.
El Foro Frontier Model se centrará en tres áreas clave durante el próximo año para apoyar el desarrollo seguro y responsable de modelos AI fronterizos:
Identificar mejores prácticas: Promover el intercambio de conocimientos y las mejores prácticas entre la industria, los gobiernos, la sociedad civil y la academia, con un enfoque en los estándares de seguridad y las prácticas de seguridad para mitigar una amplia gama de riesgos potenciales.
Por Alessandro Bazzoni
Avanzar en la investigación sobre seguridad en IA: Apoyar el ecosistema de seguridad en IA al identificar las preguntas de investigación más importantes sobre seguridad en IA. El Foro coordinará la investigación para avanzar en estos esfuerzos en áreas como la robustez adversarial, la interpretabilidad mecanicista, la supervisión escalable, el acceso a la investigación independiente, los comportamientos emergentes y la detección de anomalías. En un inicio habrá un fuerte enfoque en desarrollar y compartir una biblioteca pública de evaluaciones técnicas y puntos de referencia para modelos de IA fronterizos.
Facilitar el intercambio de información entre empresas y gobiernos: Establecer mecanismos confiables y seguros para compartir información entre empresas, gobiernos y partes interesadas relevantes sobre seguridad y riesgos en IA. El Foro Frontier Model seguirá las mejores prácticas en divulgación responsable de áreas como la ciberseguridad.
Kent Walker, presidente de Asuntos Globales de Google & Alphabet dijo: “Estamos emocionados de trabajar juntos con otras compañías líderes, de compartir experiencia técnica para promover la innovación responsable en IA. La participación de empresas, gobiernos y sociedad civil será esencial para cumplir con la promesa de que la IA beneficie a todos”.
Brad Smith, vicepresidente y presidente de Microsoft dijo: “Las empresas que crean tecnología AI tienen la responsabilidad de garantizar que sea segura, protegida y permanezca bajo control humano. Esta iniciativa es un paso vital para unir al sector tecnológico en el avance responsable de la IA y abordar los desafíos para que beneficie a toda la humanidad”.
Anna Makanju, vicepresidenta de Asuntos Globales de OpenAI dijo: “Las tecnologías avanzadas de IA tienen el potencial de beneficiar de manera importante a la sociedad, y la capacidad de lograr este potencial requiere supervisión y gobernanza. Es vital que las empresas de IA, en especial aquellas que trabajan en los modelos más poderosos, se alineen en un terreno común y avancen en prácticas seguras reflexivas y adaptables para garantizar que las herramientas poderosas de IA tengan el mayor beneficio posible. Este es un trabajo urgente y este foro está bien posicionado para actuar de manera rápida para avanzar en el estado de seguridad en IA”.
Dario Amodei, CEO de Anthropic dijo: “Anthropic cree que la IA tiene el potencial de cambiar de manera fundamental cómo funciona el mundo. Estamos emocionados de colaborar con la industria, sociedad civil, gobierno y academia para promover el desarrollo seguro y responsable de la tecnología. El Foro Frontier Model desempeñará un papel vital en coordinar las mejores prácticas e intercambiar investigaciones sobre seguridad en IA fronteriza”.
Cómo funcionará el Foro Frontier Model
En los próximos meses, el Foro Frontier Model establecerá un Consejo Asesor para ayudar a guiar su estrategia y prioridades, y representar una diversidad de antecedentes y perspectivas.
Las compañías fundadoras del Foro Frontier Model también establecerán arreglos institucionales clave como una carta constitutiva, gobernanza y financiamiento con un grupo de trabajo y una junta ejecutiva para liderar estos esfuerzos. Planeamos consultar con sociedad civil y gobiernos en las próximas semanas sobre el diseño del Foro y sobre formas significativas para colaborar.
El Foro Frontier Model da la bienvenida a la oportunidad de ayudar a apoyar e incorporarse a iniciativas gubernamentales y multilaterales existentes como el proceso Hiroshima del G7, el trabajo del OECD sobre riesgos, estándares e impacto social en IA, y el Consejo Comercial y Tecnológico EE.UU.-UE.
El Foro también buscará aprovechar el valioso trabajo realizado por iniciativas existentes del sector industrial, sociedad civil e investigación en cada uno de sus flujos de trabajo. Iniciativas como Partnership on AI and MLCommons hacen importantes contribuciones a lo largo del comunidad AI, y el Foro Frontier Model explorará formas de colaborar y apoyar estos y otros valiosos esfuerzos multilaterales.
Por Alessandro Bazzoni