ChatGPT ya volvió a estar operativo en Italia. OpenAI, su compañía desarrolladora, atendió varias de las exigencias de la autoridad de protección de datos en Italia. El chatbot impulsado por IA había sido suspendido el mes pasado, por faltar a normas relacionadas con la privacidad de los usuarios.

Las autoridades de Italia habían dado plazo hasta el domingo a OpenAI para corregir aspectos importantes el funcionamiento de la plataforma. Entre otras cosas, la tecnológica debía permitir a los usuarios oponerse al procesamiento de sus datos "de una manera simple y accesible". También debía incorporar un sistema de verificación de edad, para impedir que personas menores de 13 años usaran ChatGPT.

OpenAI informó hoy que ofrecerá una mayor visibilidad de su política de privacidad y un formulario de exclusión voluntaria del contenido de los usuarios. La empresa, además, pondrá a disposición un nuevo formulario para que los usuarios de la Unión Europea puedan negarse a que sus datos personales se utilicen para entrenar sus modelos de IA, dijo un portavoz a Reuters.

El organismo regulador en Italia, conocido como Garante, celebró las medidas tomadas por OpenAI. Dijo que espera que la empresa continúe amoldando sus desarrollos a la normativa europea sobre protección de datos.

La iniciativa de Italia impulsó la regulación de ChatGPT en toda la región

ChatGPT extensión chrome ordenador OpenAI

Italia fue el primer país de Europa en llamar la atención sobre ChatGPT. Luego de que exigiera la suspensión del servicio, otros gobiernos se sumaron a exigir mayor transparencia y garantías a OpenAI.

Irlanda y España fueron algunos de los que pidieron medidas coordinadas en toda la región. En consecuencia, la Junta Europea de Protección de Datos, el organismo que reúne a los organismos de control de la privacidad de Europa, creó un grupo de trabajo sobre el chatbot a principios de abril.

Esta semana hubo nuevos avances. Un comité de legisladores de la Unión Europea acordó ayer el borrador de una nueva normativa sobre IA. La propuesta obligaría empresas como OpenAI transparentar si están utilizando material protegido por derechos de autor para desarrollar sus sistemas.

Las herramientas de IA, según lo estipulado en el proyecto, se clasificarán según su nivel de riesgo percibido: desde mínimo hasta limitado, alto e inaceptable. Los aspectos a considerar están relacionados con la vigilancia biométrica, la generación de información falsa o el uso lenguaje discriminatorio. Las herramientas de alto riesgo no estarán prohibidas, pero sus responsables deberán ser muy transparentes en sus operaciones.