La legislación de la inteligencia artificial es un tema que está tomando fuerza en la Unión Europea y otros países. El temor a que se repita un escenario como el de las redes sociales, obligó a diversos actores políticos a pugnar por una regulación. Esto ha incomodado a miembros de la industria tecnológica, quienes piensan que son ellos y no los gobiernos quienes deberían establecer las reglas.

En una entrevista con NBC, el exdirector ejecutivo de Google, Eric Schmidt, declaró que no hay nadie en el gobierno que pueda hacerlo bien. "Mi preocupación con cualquier tipo de regulación prematura, especialmente del gobierno, es que siempre está escrita de manera restrictiva", dijo.

Eric Schmidt piensa que las empresas que desarrollan los modelos son quienes deben establecer los límites razonables. "Lo que preferiría hacer es tener un acuerdo entre los actores clave que no tendremos una competición a la baja", declaró. "El problema clave, desde mi perspectiva, es como ponemos barandillas en los peores comportamientos y cómo logramos un acuerdo internacional sobre cuáles son esas cosas", dijo.

El antiguo CEO de Google cree que solo los gurús de la industria están capacitados para entender y regular la IA.

La industria primero hará esto, porque no hay forma de que una persona que no sea de la industria pueda entender lo que es posible. Es demasiado nuevo, demasiado difícil, no hay experiencia. No hay nadie en el gobierno que pueda hacerlo bien. Pero la industria puede hacerlo más o menos correcto y luego el gobierno puede establecer una estructura regulatoria a su alrededor.

Eric Schmidt, exdirector ejecutivo de Google

Aunque la inteligencia artificial tiene el potencial para resolver problemas como el cambio climático, Schmidt advierte que si no establecen las reglas los problemas serán mucho peores.

"Solo nosotros podemos regular la IA" (las empresas)

Eric Schmidt, exdirector ejecutivo de Google, no quiere que el gobierno regule la IA
Eric Schmidt considera que la IA puede ser maravillosa, siempre y cuando las 'Big Tech' la regulen

Eric Schmidt ha jugado la misma carta que otros defensores de la inteligencia artificial. El empresario pinta un panorama grandioso en el que la IA resuelve nuestras vidas, pero solo es posible si ellos están al frente. Las mismas compañías que recopilaron nuestra información y lucraron con ella durante años debido a la falta de regulación, buscan repetir la jugada.

Darle el voto de confianza a las empresas para autorregular la IA puede tener consecuencias catastróficas. Meredith Whittaker, presidenta de Signal, considera los riesgos de un ecosistema construido a partir de modelos desarrollados por un puñado de tecnológicas.

Es el peligro del poder concentrado. El riesgo de un poder que tiene una habilidad extraordinaria para moldear nuestro panorama social y político. Estamos en un momento en que esta tecnología se está creando, distribuyendo, calibrando, y en última instancia, moldeando para servir los intereses económicos de estas empresas

Meredith Whittaker, presidenta de Signal

Whittaker, quien trabajó por más de una década en Google, considera que el discurso de Schmidt y otros impulsores de la IA es falso. "La idea de que esto se convertirá mágicamente en una fuente de bien social o que es una especie de sustancia natural que todos podemos usar por igual es simplemente falsa. Es una fantasía que se utiliza para comercializar estos programas", mencionó.

Gary Marcus, profesor emérito de psicología y ciencias neurales en la Universidad de Nueva York, tampoco está de acuerdo con la idea de Eric Schmidt. "Esta perspectiva subestima en gran medida a los científicos independientes y lo que pueden y deben contribuir", dijo en un tweet. Marcus cree que la IA se está implementando prematuramente en situaciones que de riesgo y ha hecho un llamado para que se regule.

El jueves pasado, la Unión Europea aprobó un mandato de negociación para abordar la primera legislación sobre la IA. El objetivo es garantizar que los sistemas de inteligencia artificial serán seguros, transparentes, rastreables, inclusivos y respetuosos con el medioambiente. Las medidas también buscan restringir su uso en sistemas de reconocimiento facial o de crédito social.

El proyecto de ley se someterá a votación en el Parlamento Europeo el próximo mes. Una vez aprobado, las empresas tendrán un periodo de dos años para cumplir con las reglas.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: