OpenAI podría pausar el lanzamiento de futuras versiones de ChatGPT y otros modelos de IA. Una queja del Centro de IA y Política Digital (CAIDP), una organización sin fines de lucro, busca que la Comisión Federal de Comercio (FTC) inicie una investigación contra los creadores del popular chatbot. De acuerdo con el documento, el grupo acusa a GPT-4 de ser un producto engañoso que representa un riesgo para la privacidad y la seguridad pública.

El CAIDP menciona que OpenAI no llevó a cabo ninguna evaluación independiente antes del despliegue de GPT-4, el modelo más reciente que impulsa ChatGPT. Ante los ojos del grupo, la IA viola la ley federal de protección al consumidor. Es por ello que ha solicitado a la FTC que abra una investigación y suspenda el lanzamiento de otros productos comerciales hasta que OpenAI cumpla con los lineamientos impuestos por la agencia federal.

La Comisión Federal de Comercio ha declarado que el uso de la IA debe ser "transparente, explicable, justo y empíricamente sólido al mismo tiempo que fomenta la responsabilidad". El producto GPT-4 de OpenAI no cumple ninguno de estos requisitos. Es hora de que la FTC actúe. Debería haber una supervisión y evaluación independientes de los productos comerciales de IA que se ofrecen en los Estados Unidos.

CAIDP

Marc Rotenberg, presidente y abogado general del CAIDP dijo que la FTC tiene la responsabilidad de investigar y prohibir prácticas comerciales desleales y engañosas. «Le pedimos específicamente a la FTC que determine si la empresa ha cumplido con la guía que ha emitido la agencia federal», dijo Rotenberg. El grupo describe como productos comerciales a Dall-E, GPT-4, ChatGPT y otros servicios basados en IA que ofrece OpenAI, así como sus complementos.

La FTC podría frenar el desarrollo de ChatGPT

Logotipo de OpenAI, compañía que desarrolla GPT 4 y ChatGPT 4
Crédito: OpenAI

El CAIDP inició una cruzada contra los productos de OpenAI debido a que son un riesgo para la seguridad de las personas. En su queja menciona que la empresa lanzó GPT-4 al mercado estando consciente de los peligros que representa su uso para campañas de desinformación, proliferación de armas y operaciones de ciberseguridad.

Los sistemas de IA tendrán un potencial aún mayor para reforzar ideologías enteras, visiones del mundo, verdades y falsedades, para cimentarlas o encerrarlas, impidiendo futuras contestaciones, reflexiones y mejoras.

CAIDP

Merve Hickoc, directora de investigación del CAIDP dijo que si bien reconocen las oportunidades y apoyan el desarrollo, la ausencia de salvaguardas para limitar el sesgo y engaño en estos modelos ponen en riesgo a los consumidores y empresas. En la queja interpuesta ante la FTC, el grupo menciona el informe de la Europol que detalla cómo ChatGPT podría ayudar a que se cometan delitos.

La queja invoca la Sección 5 de la Ley de la FTC que prohíbe los actos y prácticas desleales y engañosas y faculta a la Comisión para hacer cumplir las prohibiciones de la ley. Tras la investigación, si existen motivos para creer que se viola la ley, la Comisión podrá iniciar una acción de cumplimiento por medio de un proceso administrativo o judicial.

El CAIDP no solo busca una evaluación independiente de todos los modelos LLM antes de un despliegue comercial. También solicita a la FTC que redacte una serie de reglas para productos de IA generativa, como ChatGPT o Midjourney. Si la agencia federal hace caso a la denuncia, las empresas tendrán que someter sus productos a evaluación y garantizar que cumplen los estándares.