Inteligencia Artificial en jaque: investigan si pone en riesgo los datos privados

 Inteligencia Artificial en jaque: investigan si pone en riesgo los datos privados

La Comisión Federal de Comercio (FTC, por sus siglas en inglés) de Estados Unidos comenzará a estudiar a los chatbots y sistemas que funcionen con Inteligencia Artificial (IA), debido a diversas denuncias por haber infringido las leyes de protección al consumidor, lo que habría puesto en peligro los datos privados de los usuarios.

Los sistemas como ChatGPT obtuvieron gran popularidad tras su lanzamiento público y gratuito el noviembre pasado y, en el caso de la tecnología desarrollada por OpenAI, consiguió un récord de 100 millones de descargas en 2 meses.

En este marco, la comisión envió una demanda de investigación civil a la startup liderada por Sam Altman, en donde plantea cuáles son las prácticas para entrenar modelos de IA y el manejo de la información personal de los usuarios.

Entre los ejemplos de denuncias realizadas se encuentra un incidente ocurrido en 2020, cuando la empresa reveló un error que permitía a los usuarios ver información sobre otros chats y relacionada con el pago de otros usuarios. Además, la comisión está investigando si la empresa participó en prácticas desleales o engañosas que resultaron en un “daño a la reputación” de los consumidores.

La agencia también exigió una descripción detallada de los datos que OpenAI usa para entrenar sus productos y cómo está trabajando para evitar lo que se conoce en la industria de la tecnología como "alucinaciones", problema que se da cuando las respuestas del chatbot están bien estructuradas pero son completamente incorrectas.

Si la FTC determina que una empresa viola las leyes de protección al consumidor, puede imponer multas o someter a la empresa a un decreto de consentimiento, que puede dictar cómo la empresa maneja los datos.

Estados Unidos no es el primer Gobierno que puso el foco sobre OpenAI, ya que otros países también se plantearon la legalidad del uso de los datos por parte de este tipo de empresa. La Agencia Española de Protección de Datos anunció hace pocas semanas que inició "actuaciones previas de investigación a la empresa estadounidense dueña de ChatGPT".

El uso indebido de datos tiene que ver con que este tipo de empresas requieren grandes cantidades de datos para conseguir que sus modelos sepan procesar el lenguaje humano y articular las respuestas que le piden los usuarios. Hasta ahora, estas entidades captaron datos a su alcance sin importar la propiedad o el registro, lo que también despertó recelo de los productores de la información.

Recomendar A Un Amigo
  • gplus
  • pinterest
Commentarios
No hay comentarios por el momento

Tu comentario