Inmaculada Martínez Rubio
«Hay una inteligencia artificial buena que traerá progreso y una mala que hay que combatir»Secciones
Servicios
Destacamos
Inmaculada Martínez Rubio
«Hay una inteligencia artificial buena que traerá progreso y una mala que hay que combatir»Miembro del consejo asesor de la Secretaría de Estado para la Inteligencia Artificial del Ministerio de Economía y Transformación Digital del Gobierno español, por el que fue nombrada representante en el comité de expertos del GPAI, la asociación internacional de naciones miembros del OECD y ... G7 para el desarrollo de la inteligencia artificial, Inmaculada Martínez Rubio es una pionera de esta herramienta hoy en cuestión y una de las grandes conocedoras del asunto que tanto nos preocupa. Ella está tranquila. Habrá regulación y la IA nos traerá múltiples beneficios. Eso ha contado en Oviedo, a donde ha viajado para unirse al jurado del Premio Princesa de Asturias de Investigación Científica y Técnica que mañana se falla.
-Se abre un debate mundial con la Inteligencia Artificial. ¿Tenemos que preocuparnos tanto como se dice?
-Tenemos que preocuparnos de que la IA se esté entrenando con gobernanza de datos. Eso quiere decir que compañías que desarrollan inteligencia artificial y luego ponen productos o servicios en el mundo para que la gente los use, esos datos los tienen porque se les ha dado permiso, porque tú has consentido, es decir, la famosa directiva general de datos. A ti una compañía al usar tus datos te lo tiene que decir. ¿Qué ha pasado? Que cuando se ha puesto en el mundo el famoso ChatGPT, esta compañía no tenía gobernanza de datos, ha habido un escape de datos, por eso Italia bloqueó el servicio durante un mes. Y luego nos hemos dado cuenta de que estos modelos se tienen que entrenar con datos de toda la sociedad, no solo que tomen capturas de conversaciones de hombres blancos de 18 a 35 en EE UU, que fue como se entrenó ChatGPT, sino que alberguen todas las lenguas, todos los segmentos de la sociedad, hombres, mujeres, niños, personas ancianas, minorías, personas empobrecidas... El debate, ahora cuando todo el mundo habla de regulación, es ¿qué vamos a regular? ¿Esto se puede regular?
-Pues usted dirá cuál es la respuesta a estas preguntas.
-Sí, se pueden regular ciertas cosas. Por ejemplo, cómo se entrenan: que tengan gobernanza de datos, que sean inclusivos, que estén todas las personas del mundo, todos los idiomas. O sea, una IA para todos. Luego está el famoso debate de quién va a poner esas tecnologías en el mundo y se está pidiendo que los gobiernos den financiación a universidades e institutos para que así no lo desarrollen solo compañías millonarias de tecnología, que es como siempre el internet se ha propulsado: unos cuantos crean las plataformas y todo el mundo depende de ellos. Esto es un cambio muy positivo, porque al internet nunca se le pidió antes que fuera así, súper democrático, equitativo, y a la IA, sí. Yo llevo más de veinte años trabajando en inteligencia artificial y ahora es cuando veo que los gobiernos me hablan de cómo podemos garantizar la ética, cuando eso jamás pasó con el internet, con lo cual les veo preocupados, les veo concienciados, cuando digo les veo es porque donde yo trabajo, en la gran asociación de países por la IA, que inició el G7 y el G20 y ahora tiene 29 miembros, incluida España, todos tienen preocupación por crear una sociedad con progreso económico y justa. Y eso me gusta mucho porque no lo he visto antes.
-¿Pero poner de acuerdo a todo el mundo, en el sentido estricto del término mundo, no es imposible?
-No, cuando hubo muchos avances en genética, en los años ochenta, se clonó una oveja, y llegó la situación de ¿podremos clonar humanos? Y la respuesta era sí, pero todos los países acordaron que no lo harían porque sería una aberración. Y todos los países siguen concienciados y apoyando para que no se haga. Si lo hemos conseguido en otros campos, en la IA, también, y lo noto porque estoy sentada cada semana en reuniones debatiendo de esto y apoyando los esfuerzos no solo del Gobierno de España, sino de todos los países, en los que está imbuida esa conciencia.
-Pero el mundo está lleno de chiflados.
-Sí, por eso hay que regular. Lo que pasó con el ChatGPT fue que al principio todo el mundo estaba eufórico, luego se empezaron a ver fallos y se les ha parado y se les ha concienciado de que hay que pedir unos salva barreras. Ahí tienen a Sam Altman, que ahora está pidiendo regulación por todos los lados y es porque los gobiernos tienen conciencia de que hay una IA buena, que va a crear progreso y bienestar social, y hay una IA que se tiene que combatir. Están muy concienciados. Jamás he tenido tanto trabajo en crear regulación y tan rápido como ahora.
-Luego es una urgencia.
-Es una urgencia. La IA es muy antigua, tiene sesenta años.
-Pero el doble salto mortal lo está dando ahora.
-Porque es una IA nueva. Antes eran algoritmos matemáticos para que un coche frene cuando tenga que frenar, cuando empezamos a desarrollar redes neuronales o a nivel de la estructura molecular de las proteínas, etc, la cosa cambió. Es una IA que se está amplificando. Con la IA generativa, que es la que las personas han usado desde septiembre, se abre un mundo nuevo porque jamás la habíamos visto en acción. En 2018 hubo un salto muy grande en su innovación y GPT puso a jugar a la gente con ello, y pusieron un modelo con muchos fallos. Viene bien que esto haya ocurrido, porque ahora vamos a meternos en faena y vamos a garantizar que cualquiera que esté desarrollando estos modelos generativos lo haga con gobernanza.
¿Ya eres suscriptor/a? Inicia sesión
Publicidad
Publicidad
Te puede interesar
Fallece un hombre tras caer al río con su tractor en un pueblo de Segovia
El Norte de Castilla
Publicidad
Publicidad
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.