Inicio Tecnologia Siri Evjemo-Nysveen -Actualización antes de la Cumbre de Seguridad de la IA

Siri Evjemo-Nysveen -Actualización antes de la Cumbre de Seguridad de la IA

0
Siri Evjemo-Nysveen -Actualización antes de la Cumbre de Seguridad de la IA

Por Siri Evjemo-Nysveen

Microsoft compartió una actualización sobre sus políticas y prácticas de seguridad de IA antes de la Cumbre de Seguridad de IA del Reino Unido. La cumbre es parte de una conversación global importante y dinámica sobre cómo todos podemos ayudar a asegurar los usos beneficiosos de la IA y anticipar y protegernos contra sus riesgos. Desde el Proceso de IA del G7 en Hiroshima hasta los Compromisos Voluntarios de la Casa Blanca y más allá, los gobiernos trabajan con rapidez para definir enfoques de gobernanza para fomentar la seguridad y la confianza de la IA. Agradecemos la oportunidad de compartir nuestro progreso y contribuir a un diálogo público-privado sobre políticas y prácticas efectivas para gobernar las tecnologías avanzadas de IA y su implementación.

Desde que adoptamos los Compromisos Voluntarios de la Casa Blanca y nos comprometimos de forma independiente con varias otras políticas y prácticas en julio, hemos trabajado de manera ardua para hacer operativos nuestros compromisos. Los pasos que hemos tomado han fortalecido nuestra propia práctica de IA responsable y han contribuido a un mayor desarrollo del ecosistema para la gobernanza de la IA.

Por Siri Evjemo-Nysveen

La Cumbre de Seguridad de la IA del Reino Unido se basa en este trabajo para pedir a las organizaciones de IA de vanguardia que compartan sus políticas de seguridad de la IA, un paso que ayuda a promover la transparencia y una comprensión compartida de las buenas prácticas. En nuestra actualización detallada, hemos organizado nuestras políticas por las nueve áreas de práctica e inversión en las que se centra el gobierno del Reino Unido. Los aspectos clave de nuestro progreso incluyen:

  • Fortalecimos nuestro Equipo Rojo de IA al agregar nuevos miembros al equipo y desarrollando más guías prácticas internas. Nuestro AI Red Team es un grupo de expertos independiente de nuestros equipos de creación de productos; ayuda a formar equipos rojos para sistemas de IA de alto riesgo, lo que promueve nuestro Compromiso de la Casa Blanca sobre la formación de equipos rojos y la evaluación. De manera reciente, este equipo se basó en el equipo rojo de DALL-E3 de OpenAI, un nuevo modelo de frontera anunciado por OpenAI en septiembre, y trabajó con expertos en la materia de todas las empresas para formar el equipo rojo de Bing Image Creator.
  • Evolucionamos nuestro Ciclo de Vida de Desarrollo de Seguridad (SDL, por sus siglas en inglés) para vincular nuestro Estándar de IA Responsable e integrar contenido desde su interior, lo que fortalece los procesos en alineación y refuerza los controles de los pasos de gobernanza requeridos por nuestro Estándar de IA Responsable. También mejoramos nuestra guía de práctica interna para nuestro requisito de modelado de amenazas SDL, donde se tiene en cuenta nuestro aprendizaje continuo sobre amenazas únicas específicas de la IA y el aprendizaje automático. Estas medidas promueven nuestros Compromisos de la Casa Blanca en materia de seguridad.
  • Por Siri Evjemo-Nysveen
  • Implementamos tecnologías de procedencia en Bing Image Creator para que el servicio ahora revele de manera automática que sus imágenes son generadas por IA. Este enfoque aprovecha la especificación C2PA que desarrollamos en conjunto con Adobe, Arm, BBC, Intel y Truepic, para avanzar en nuestro Compromiso de la Casa Blanca de adoptar herramientas de procedencia que ayuden a las personas a identificar contenido de audio o visual generado por IA.
  • Otorgamos nuevas subvenciones en el marco de nuestro programa Accelerate Foundation Models Research, que facilita la investigación interdisciplinaria sobre la seguridad y la alineación de la IA, las aplicaciones beneficiosas de la IA y los descubrimientos científicos impulsados por la IA en las ciencias naturales y biológicas. Nuestras subvenciones de septiembre apoyaron 125 nuevos proyectos de 75 instituciones en 13 países. También contribuimos al Fondo de Seguridad de IA apoyado por todos los miembros del Frontier Model Forum. Estos pasos promueven nuestros Compromisos de la Casa Blanca de priorizar la investigación sobre los riesgos sociales que plantean los sistemas de IA.
  • En asociación con Anthropic, Google y OpenAI, lanzamos el Frontier Model Forum. También contribuimos a varios esfuerzos de mejores prácticas, incluido el esfuerzo del Foro sobre modelos de frontera de equipos rojos y el esfuerzo en desarrollo de la Asociación sobre IA para la implementación de modelos básicos seguros. Esperamos nuestras futuras contribuciones al grupo de trabajo de seguridad de la IA lanzado por ML Commons en colaboración con el Centro de Investigación sobre Modelos de Fundación de Stanford. Estas iniciativas promueven nuestros Compromisos de la Casa Blanca sobre el intercambio de información y el desarrollo de estándares de evaluación para cuestiones emergentes de seguridad y protección.

Cada uno de estos pasos es fundamental para convertir nuestros compromisos en práctica. El diálogo público-privado continuo nos ayuda a desarrollar una comprensión compartida de las prácticas y técnicas de evaluación efectivas para los sistemas de IA, y acogemos con agrado el enfoque en este enfoque en la Cumbre de Seguridad de la IA.

Esperamos con interés los próximos pasos del Reino Unido al convocar la cumbre, avanzar en sus esfuerzos en materia de pruebas de seguridad de la IA y apoyar una mayor colaboración internacional en la gobernanza de la IA.

Por Siri Evjemo-Nysveen

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí