El Mundo

Italia bloquea el uso de ChatGPT por no respetar la legislación de datos

El chat desarrollado por la compañía OpenIA sufrió una pérdida de datos sobre sus usuarios y los datos de pago de sus abonados.

ROMA.- Italia dispuso este viernes el bloqueo “con efecto inmediato” de la herramienta de Inteligencia Artificial ChatGPT, de la tecnológica estadounidense OpenAI, acusándola de no respetar la ley de protección de datos de los consumidores.

El garante italiano para la Protección de Datos Personales aseguró en un comunicado que abrió una investigación y que, entretanto, el bloqueo se mantendrá hasta que ChatGPT “no respete la disciplina de la privacidad”.

El popular ChatGPT fue desarrollado por la compañía OpenIA de Estados Unidos, donde varias organizaciones han pedido también su suspensión por recelar de estos experimentos con Inteligencia Artificial.

El organismo italiano informó de que este chat, el más conocido de la emergente inteligencia artificial, capaz de simular conversaciones humanas, sufrió el pasado 20 de marzo una pérdida de datos sobre sus usuarios y los datos de pago de sus abonados.

En su disposición, el garante italiano destaca “la falta de información a usuarios y a todos los interesados de quienes recoge datos OpenAI” pero “sobre todo la ausencia de una base jurídica que justifique la recogida y conservación masiva de datos personales”.

Además, alega, las informaciones generadas por ChatGPT “no siempre corresponden” a la realidad.

Por último, Italia lamenta “la ausencia de todo tipo de filtro” en la verificación de la edad de sus usuarios, a pesar de que el servicio esté dirigido a mayores de 13 años.

De este modo los niños están “expuestos a respuestas absolutamente no idóneas respecto a su nivel de desarrollo y conciencia”.

El uso de la inteligencia artificial cada vez es más frecuente y pujante y, por eso, la Unesco urgió a los países que apliquen “sin demora” el Marco Ético Mundial sobre esa tecnología, adoptado en 2021 de forma unánime por los 193 Estados miembros.

EFE.

Te puede interesar

Cargando...
Cargando...
Cargando...