Les régulateurs américains sondent la société d’intelligence artificielle OpenAI sur les risques pour les consommateurs de ChatGPT générant de fausses informations.
La Federal Trade Commission (FTC) a envoyé une lettre à l’entreprise soutenue par Microsoft demandant des informations sur la manière dont elle traite les risques pour la réputation des personnes.
L’enquête est un signe de l’examen réglementaire croissant de la technologie.
Le directeur général d’OpenAI, Sam Altman, a déclaré que la société travaillerait avec la FTC.
ChatGPT génère des réponses humaines convaincantes aux requêtes des utilisateurs en quelques secondes, au lieu de la série de liens générés par une recherche Internet traditionnelle. On s’attend à ce que ce produit, ainsi que des produits d’IA similaires, changent radicalement la façon dont les gens obtiennent les informations qu’ils recherchent en ligne.
Les rivaux technologiques se précipitent pour proposer leurs propres versions de la technologie, même si cela génère un débat féroce, notamment sur les données qu’elle utilise, l’exactitude des réponses et si l’entreprise a violé les droits d’auteur lors de la formation de la technologie.
La lettre de la FTC demande quelles mesures OpenAI a prises pour traiter le potentiel de ses produits à “générer des déclarations sur de vrais individus qui sont fausses, trompeuses, désobligeantes ou nuisibles”.
La FTC examine également l’approche d’OpenAI en matière de confidentialité des données et la manière dont elle obtient des données pour former et informer l’IA.
M. Altman a déclaré qu’OpenAI avait passé des années à rechercher la sécurité et des mois à rendre ChatGPT “plus sûr et plus aligné avant de le publier”.
“Nous protégeons la vie privée des utilisateurs et concevons nos systèmes pour en savoir plus sur le monde, pas sur les particuliers”, a-t- il déclaré sur Twitter .
Dans un autre tweet, il a déclaré qu’il était important pour l’entreprise que sa “technologie soit sûre et pro-consommateur, et nous sommes convaincus que nous respectons la loi. Bien sûr, nous travaillerons avec la FTC”.
M. Altman a comparu devant une audience au Congrès plus tôt cette année, au cours de laquelle il a admis que la technologie pouvait être une source d’erreurs.
Il a appelé à la création de réglementations pour l’industrie émergente et a recommandé la création d’une nouvelle agence pour superviser la sécurité de l’IA. Il a ajouté qu’il s’attendait à ce que la technologie ait un impact significatif, y compris sur les emplois, à mesure que ses utilisations deviendront claires.
“Je pense que si cette technologie tourne mal, elle peut mal tourner… nous voulons en parler”, a déclaré M. Altman à l’époque. “Nous voulons travailler avec le gouvernement pour empêcher que cela ne se produise.”
L’enquête de la FTC a été rapportée pour la première fois par le Washington Post, qui a publié une copie de la lettre. OpenAI n’a pas répondu à une demande de commentaire de la BBC.
La FTC a également refusé de commenter. Le chien de garde des consommateurs a joué un rôle de premier plan dans la surveillance des géants de la technologie sous sa présidence actuelle, Lina Khan.
Mme Khan s’est fait connaître en tant qu’étudiante en droit de Yale, lorsqu’elle a critiqué le bilan américain en matière d’application de la loi anti-monopole liée à Amazon.
Nommée par le président Joe Biden, elle est une figure controversée, les critiques affirmant qu’elle pousse la FTC au-delà des limites de son autorité.
Certains de ses défis les plus médiatisés des activités des entreprises technologiques – y compris une pression pour bloquer la fusion de Microsoft avec le géant du jeu Activision Blizzard – ont fait face à des revers devant les tribunaux.
Au cours d’une audience de cinq heures au Congrès jeudi, elle a fait face à de vives critiques de la part des républicains sur sa direction de l’agence.
Elle n’a pas mentionné l’enquête de la FTC sur OpenAI, qui en est à un stade préliminaire. Mais elle a dit qu’elle avait des inquiétudes quant à la sortie du produit.
“Nous avons entendu parler de rapports où des informations sensibles de personnes apparaissent en réponse à une demande de quelqu’un d’autre”, a déclaré Mme Khan.
“Nous avons entendu parler de diffamation, de déclarations diffamatoires, de choses carrément fausses qui émergent. C’est le type de fraude et de tromperie qui nous préoccupe”, a-t-elle ajouté.
La sonde FTC n’est pas le premier défi de l’entreprise sur ces questions. L’Italie a interdit ChatGPT en avril, invoquant des problèmes de confidentialité. Le service a été restauré après avoir ajouté un outil pour vérifier l’âge des utilisateurs et fourni plus d’informations sur sa politique de confidentialité.