lunes, febrero 24, 2025
spot_img
InicioMundoEl Departamento de Educación anula $39 mil millones en deuda estudiantil para...

El Departamento de Educación anula $39 mil millones en deuda estudiantil para 800,000 prestatarios

La Comisión Federal de Comercio inicia una exhaustiva investigación sobre OpenAI en medio de preocupaciones por filtraciones de datos y problemas de precisión en ChatGPT

La Comisión Federal de Comercio (FTC) ha iniciado una investigación exhaustiva sobre OpenAI, planteando interrogantes sobre posibles violaciones de las leyes de protección al consumidor que podrían haber puesto en riesgo los datos personales y la reputación de las personas. La agencia entregó recientemente una demanda de 20 páginas a la empresa con sede en San Francisco, buscando registros que aclaren cómo OpenAI aborda los riesgos asociados con sus modelos de inteligencia artificial (IA), según un documento obtenido por The Washington Post. Esta investigación regulatoria representa la amenaza más significativa que OpenAI ha enfrentado hasta ahora por parte de los reguladores de EE. UU., coincidiendo con la campaña global de la empresa para dar forma al futuro de las políticas de inteligencia artificial.

El ChatGPT de OpenAI ha sido aclamado como la aplicación de consumo de más rápido crecimiento en la historia, lo que ha generado una feroz competencia entre las empresas de Silicon Valley para desarrollar chatbots competidores. Sam Altman, el CEO de la empresa, ha emergido como una figura influyente en el debate sobre la regulación de la IA, testificando en el Capitolio, interactuando con legisladores y reuniéndose con el presidente Biden y la vicepresidenta Harris.

Sin embargo, OpenAI ahora enfrenta un desafío sustancial en Washington, ya que la FTC ha advertido repetidamente que las leyes de protección al consumidor existentes son aplicables a la IA, incluso cuando los responsables políticos luchan por establecer nuevas regulaciones. El líder de la mayoría del Senado, Charles E. Schumer (D-N.Y.), ha indicado que puede tomar meses aprobar una nueva legislación sobre IA. La demanda de la FTC de información a OpenAI señala su intención de hacer cumplir estas advertencias. Si la agencia encuentra evidencia de violaciones a las leyes de protección al consumidor, tiene la autoridad para imponer multas o restricciones sobre las prácticas de manejo de datos de la empresa. La FTC se ha convertido en la principal responsable de hacer cumplir las leyes de protección al consumidor contra las principales empresas tecnológicas, habiendo impuesto multas significativas a Meta (anteriormente Facebook), Amazon y Twitter por supuestas violaciones.

La solicitud de la FTC a OpenAI abarca descripciones detalladas de cualquier queja recibida respecto a la difusión por parte de ChatGPT de declaraciones «falsas, engañosas, difamatorias o perjudiciales» sobre individuos. La agencia está investigando si OpenAI participó en prácticas desleales o engañosas que resultaron en daños a la reputación de los consumidores. Además, la FTC está solicitando registros relacionados con un incidente de seguridad que OpenAI divulgó en marzo, involucrando un error en sus sistemas que expuso información relacionada con pagos e historial de chats de ciertos usuarios. La agencia está evaluando si las prácticas de seguridad de datos de OpenAI contravienen las leyes de protección al consumidor. OpenAI había afirmado en una publicación de blog que el número de usuarios afectados por el incidente fue excepcionalmente bajo.

Aunque la FTC se negó a comentar sobre la investigación, el CEO de OpenAI, Sam Altman, expresó la disposición de la empresa para cooperar con la agencia en un tuit, afirmando su compromiso de garantizar la seguridad y el carácter pro-consumidor de su tecnología. Altman también expresó su decepción por el enfoque inicial de la FTC sobre una filtración de datos, ya que no contribuye a generar confianza. Sin embargo, destacó la confianza de OpenAI en cumplir con la ley y priorizar los intereses de los consumidores.

Durante una audiencia, el representante Dan Bishop (R-N.C.) cuestionó a la presidenta de la FTC, Lina Khan, sobre la autoridad legal que habilita a la agencia para hacer demandas a una empresa como OpenAI, reflejando preocupaciones sobre un posible exceso de autoridad por parte de la FTC. Bishop señaló que los casos de difamación y calumnias se abordan generalmente bajo las leyes estatales, aludiendo a las investigaciones de la FTC sobre el daño a la reputación. Khan respondió afirmando que la difamación y la calumnia no son el enfoque principal de la agencia, pero que el mal uso de la información privada en el entrenamiento de IA podría constituir fraude o engaño bajo la Ley de la FTC. Khan enfatizó el enfoque de la FTC en evaluar los daños sustanciales a los individuos, los cuales pueden manifestarse de diversas formas.

La FTC ha señalado de manera constante sus acciones inminentes sobre la IA a través de discursos, publicaciones en blogs, artículos de opinión y conferencias de prensa. En un discurso de abril en la Facultad de Derecho de Harvard, Samuel Levine, director de la Oficina de Protección al Consumidor de la FTC, afirmó que la agencia está lista para abordar rápidamente las amenazas emergentes en el panorama de la IA, al mismo tiempo que reconoció la importancia de la innovación. Levine destacó que ser innovador no otorga una licencia para la imprudencia y que la FTC está preparada para emplear todas las herramientas disponibles, incluida la ejecución, para combatir las prácticas perjudiciales.

El enfoque de la FTC sobre la regulación de la IA ha sido comunicado a través de publicaciones en blogs vívidas, a veces invocando películas populares de ciencia ficción para advertir a la industria sobre violaciones de la ley. La agencia ha advertido sobre estafas de IA, el uso engañoso de la IA generativa para manipular a los clientes potenciales y las afirmaciones exageradas sobre las capacidades de los productos de IA. En abril, Khan participó en una conferencia de prensa junto con funcionarios de la administración Biden, destacando el riesgo de discriminación en la IA.

Las acciones de la FTC han recibido una rápida resistencia de la industria tecnológica. Adam Kovacevich, CEO de la Cámara de Progreso, una coalición de la industria, reconoció la autoridad de la FTC sobre la seguridad de los datos y las preocupaciones sobre la tergiversación. Sin embargo, cuestionó si la agencia tiene jurisdicción para regular la difamación o los contenidos específicos generados por ChatGPT. Kovacevich expresó su preocupación de que la FTC pueda priorizar casos llamativos sobre lograr resultados sustanciales en la seguridad de la tecnología de IA.

Entre la extensa información solicitada a OpenAI, la FTC busca investigaciones, pruebas y encuestas que evalúen la comprensión de los consumidores sobre la precisión y fiabilidad de los resultados generados por ChatGPT. La agencia ha hecho consultas específicas sobre registros relacionados con el potencial del chatbot para producir declaraciones difamatorias, solicitando información sobre quejas relacionadas con declaraciones falsas realizadas por el chatbot. El enfoque de la FTC en las falsificaciones proviene de varios incidentes de alto perfil en los que ChatGPT produjo información incorrecta que podría dañar la reputación de las personas. Por ejemplo, el presentador de radio Mark Walters presentó una demanda por difamación contra OpenAI, alegando que ChatGPT fabricó reclamaciones legales en su contra. El chatbot afirmó erróneamente que Walters, presentador de «Armed American Radio», estaba involucrado en el fraude y el mal manejo de fondos de la Fundación Segunda Enmienda, una demanda en la que Walters no era parte.

La solicitud de la FTC también profundiza en los productos de OpenAI y su publicidad, políticas y procedimientos para el lanzamiento de nuevos productos, incluidos los casos en los que la empresa retuvo un modelo de lenguaje grande debido a preocupaciones de seguridad. También se buscan descripciones detalladas de los datos utilizados para entrenar los productos de OpenAI, que provienen principalmente de texto extraído de fuentes como Wikipedia y Scribd. La agencia está interesada en comprender cómo OpenAI refina sus modelos para abordar problemas de «alucinación», donde los modelos generan respuestas incluso cuando no tienen la información necesaria.

Además, OpenAI debe proporcionar información sobre la magnitud del incidente de seguridad de marzo y las medidas tomadas para responder a la filtración. La demanda de investigación civil de la FTC también se extiende a cómo OpenAI licencia sus modelos a otras empresas.

Si bien Estados Unidos ha estado rezagado respecto a otros gobiernos en legislación sobre IA y regulación de la privacidad, ahora hay una intensa actividad en Washington para ponerse al día. El líder de la mayoría en el Senado, Schumer, organizó recientemente una sesión informativa con funcionarios del Pentágono y la comunidad de inteligencia, discutiendo los riesgos de seguridad nacional asociados con la IA. Schumer, junto con un grupo bipartidista de senadores, está trabajando activamente en una nueva legislación sobre IA, con el objetivo de equilibrar la innovación y garantizar las salvaguardias adecuadas. La vicepresidenta Harris también sostuvo una discusión en la Casa Blanca sobre los riesgos de seguridad y protección de la IA, involucrando a defensores de la protección al consumidor y líderes de derechos civiles.

A medida que la investigación de la FTC se desenvuelve, la tensión entre innovación, protección al consumidor y supervisión regulatoria en el ámbito de la IA continúa escalando. La cooperación de OpenAI con la agencia será seguida de cerca, mientras que el resultado de esta investigación podría tener implicaciones de largo alcance para la industria de la IA en general y su futura regulación.

RELATED ARTICLES

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

- Advertisment -
Google search engine

Most Popular

Recent Comments