Google, Microsoft, OpenAI y Anthropic crean un organismo para regular el desarrollo de la IA
Cuatro de las empresas tecnológicas más influyentes del mundo han anunciado la formación de un organismo industrial para supervisar el desarrollo seguro de la inteligencia artificial. Como adelantaba The Guardian la pasada semana, estas entidades han creado el denominado Foro de Modelos Fronterizos, formado por el desarrollador de ChatGPT OpenAI, Microsoft, Google (propietaria de la británica DeepMind) junto con la menos conocida Anthropic (fundada por extrabajadores de OpenAI).
El grupo ha manifestado que se centrará en el desarrollo "seguro y responsable" de modelos de IA fronterizos, en referencia a la tecnología de IA aún más avanzada que los ejemplos disponibles en la actualidad.
"Las empresas que crean tecnología de IA tienen la responsabilidad de garantizar que sea segura y permanezca bajo control humano", dijo Brad Smith, presidente de Microsoft. "Esta iniciativa es un paso vital para unir al sector tecnológico en el avance de la IA de forma responsable y abordar los retos para que beneficie a toda la humanidad”.
Los miembros del foro han afirmado que sus principales objetivos se centran en promover la investigación en seguridad de la IA, así como el desarrollo de normas para evaluar modelos; fomentar el despliegue responsable de modelos avanzados de IA; debatir con políticos y académicos los riesgos para la confianza y la seguridad en la IA, y ayudar a desarrollar usos positivos de la IA como la lucha contra la crisis climática y la detección del cáncer.
Podrán formar parte de la entidad las organizaciones que desarrollen modelos de vanguardia, definidos como "modelos de aprendizaje automático a gran escala que superen las capacidades actuales de los modelos existentes más avanzados y puedan realizar una amplia variedad de tareas", apuntaron los responsables.
En busca de la regulación de la IA
El anuncio se produce en un momento en que se intensifican las iniciativas para regular esta tecnología. El pasado viernes, las empresas tecnológicas (incluidos los miembros fundadores del Frontier Model Forum) acordaron nuevas normativas para la IA tras una reunión en la Casa Blanca con el presidente de Estados Unidos, Joe Biden. Entre los compromisos adquiridos en la reunión se incluye la colocación de marcas de agua en los contenidos creados por la IA para facilitar la detección de material engañoso, como los deepfakes, y permitir que expertos independientes prueben los modelos de IA.
El anuncio de la Casa Blanca fue acogido con escepticismo por algunos activistas que afirmaron que la industria tecnológica tiene un historial de incumplimiento de los compromisos de autorregulación. Meta ya anunció la semana pasada que pondría a disposición del público un modelo de inteligencia artificial que fue rechazado por algunos expertos.
Por su parte, el Gobierno británico también está buscando regular la IA y ha convocado una cumbre mundial sobre la seguridad de esta tecnología. La UE, mientras, está introduciendo una ley sobre IA que representa el intento legislativo más serio de acotar y establecer unas normas para este gran avance revolucionario.
Andrew Rogoyski, del Institute for People-Centred AI de la Universidad de Surrey, dijo que la supervisión de la inteligencia artificial no debe caer en la "captura reguladora", por la que las preocupaciones de las empresas dominan el proceso regulador.
“Me preocupa mucho que los gobiernos hayan cedido el liderazgo de la IA al sector privado, probablemente de forma irrecuperable”, añadió. Es una tecnología tan poderosa, con un gran potencial para lo bueno y para lo malo, que necesita una supervisión independiente que represente a las personas, las economías y las sociedades que se verán afectadas por la IA en el futuro", finaliza.
Fuente: The Guardian