Mercredi, le gouvernement indien a proposé de nouvelles règles exigeant que les entreprises d'IA et de médias sociaux étiquettent clairement le contenu qu'elles génèrent, dans le but de freiner la propagation des deepfakes et de la désinformation.

Les nouvelles règles exigent que les plateformes apposent des étiquettes visibles sur le contenu généré par IA, couvrant au moins 10 % de la surface du contenu visuel ou les 10 premières secondes d'un clip audio, renforçant ainsi la responsabilité des entreprises comme OpenAI, Meta, X et Google. Le projet de proposition stipule également que les entreprises de médias sociaux doivent obtenir des déclarations des utilisateurs sur le fait que le contenu téléchargé est généré par IA et prendre des mesures techniques raisonnables pour assurer des garde-fous. Le ministère indien de l'Informatique a indiqué que ces règles garantiront des étiquettes visibles, une traçabilité des métadonnées et la transparence pour les médias générés par IA, et sollicite les commentaires du public et de l'industrie jusqu'au 6 novembre.









