OpenAI combat un ordre sans précédent pour préserver tous les journaux de ChatGPT

OpenAI combat un ordre sans précédent pour préserver tous les journaux de ChatGPT

Le mois dernier, un juge fédéral a rendu une décision significative exigeant qu’OpenAI conserve toutes les données de ChatGPT en raison d’un procès pour violation de droits d’auteur en cours. OpenAI a répondu en interjetant appel, affirmant que cet « ordre vaste et sans précédent » contrevient aux droits de confidentialité des utilisateurs.

Le New York Times a engagé une action en justice contre OpenAI et Microsoft en 2023, alléguant que leurs articles avaient été utilisés sans autorisation pour former des modèles de langage. OpenAI a rétorqué que l’affaire n’avait pas de fondement et que cette formation était conforme aux principes de « l’utilisation équitable ».

Initialement, OpenAI conservait les journaux de chat de ChatGPT uniquement pour les utilisateurs qui ne s’étaient pas désinscrits. Cependant, en mai, le Times, ainsi que d’autres organisations médiatiques, a soulevé des inquiétudes concernant la prétendue « destruction en cours » des journaux de chat qui pourraient potentiellement contenir des preuves de violation de droits d’auteur. La juge Ona Wang a ordonné à OpenAI de préserver et de cataloguer tous les journaux de ChatGPT qui seraient autrement supprimés.

Dans leur appel, OpenAI a soutenu que la décision de la juge Wang sapait leur capacité à respecter les choix de confidentialité des utilisateurs. Selon Ars Technica, l’entreprise a maintenu que les revendications du Times étaient infondées, précisant qu’ils n’avaient détruit aucune donnée en rapport avec le procès et affirmant que la décision semblait avoir supposé à tort le contraire.

Dans une déclaration, le COO Brad Lightcap a exprimé que les exigences du Times et d’autres plaignants étaient excessives. Il a souligné que demander à OpenAI de conserver toutes les données ignorait les normes de confidentialité établies et pouvait affaiblir les protections de la vie privée en général.

Sur X, le PDG Sam Altman a exprimé ses inquiétudes selon lesquelles la « demande inappropriée crée un précédent préoccupant ». Il a souligné la nécessité d’un « privilège AI », suggérant que les interactions avec l’IA devraient être protégées de manière similaire aux conversations avec des avocats ou des médecins.

Les conséquences de l’ordonnance de la cour ont suscité une alarme initiale. Les documents juridiques d’OpenAI ont référencé les réactions sur les réseaux sociaux, y compris des avertissements de professionnels conseillant à leurs clients de faire preuve de prudence lorsqu’ils partagent des informations sensibles sur ChatGPT. Un utilisateur a fait remarquer qu’il était « insensé » de prioriser les préoccupations de droits d’auteur du New York Times par rapport à la vie privée des utilisateurs d’OpenAI.

Il est certainement plausible que de nombreux utilisateurs n’aient pas d’historiques de chat contenant des données sensibles. Pourtant, ChatGPT est souvent utilisé pour des affaires personnelles, des conseils ou même un soutien émotionnel, ressemblant pour certains à un thérapeute ou un compagnon. Quelles que soient les utilisations personnelles, chacun a le droit de garder ses conversations privées.

À l’inverse, la position juridique du Times a un fondement qui invite à la discussion autour des pratiques de formation de l’IA. Considérez des cas comme Clearview AI, qui a récupéré des milliards d’images sur Internet sans consentement pour améliorer sa technologie de reconnaissance faciale. Cette approche soulève des questions critiques sur la nécessité pour des entreprises comme OpenAI d’obtenir une autorisation explicite pour utiliser du contenu en ligne au lieu de l’approprier automatiquement.

Quelles sont les implications de la décision de la cour pour la vie privée des utilisateurs ?

La décision souligne un conflit important entre les lois sur le droit d’auteur et la vie privée des utilisateurs. Elle soulève des inquiétudes concernant le contrôle que les entreprises ont sur les interactions des utilisateurs et les données qu’ils génèrent.

Comment cette affaire pourrait-elle affecter l’avenir de la formation de l’IA ?

Cette affaire pourrait établir des précédents juridiques influençant la manière dont les entreprises d’IA obtiennent des données de formation. En fonction de l’issue, des réglementations pourraient être établies concernant la nécessité d’obtenir le consentement des utilisateurs pour utiliser du contenu en ligne.

Quelles mesures OpenAI met-elle en place pour protéger la vie privée des utilisateurs ?

OpenAI travaille activement à interjeter appel de la décision de la cour afin de renforcer son engagement à respecter les droits de confidentialité des utilisateurs tout en veillant à se conformer aux exigences légales.

Dans le grand paysage de l’IA, ce dialogue en cours est crucial. Les utilisateurs ont besoin de clarté sur la manière dont leurs données sont traitées. La transparence est essentielle. Une fois que nous aurons réglé ces préoccupations urgentes, nous pourrons assurer une coexistence respectueuse de l’innovation et de la vie privée. Si vous êtes intéressé à en savoir plus sur la technologie et l’IA, n’hésitez pas à consulter Moyens I/O pour une multitude de contenus connexes.

Voir aussi:  Google Gemini améliore la navigation sur le web pour les utilisateurs ayant des défis visuels et auditifs
Moyens I/O Staff est une équipe de rédacteurs spécialisés, passionnés par la technologie, l’innovation et les usages numériques. Forts d’une expertise pointue en IA, applications mobiles, gaming et tendances digitales, nous produisons un contenu rigoureux, vérifié et utile. Notre mission : vous offrir une information fiable et claire pour mieux naviguer dans le monde numérique en constante évolution. Découvrez les avis de nos lecteurs sur Trustpilot.