Intelligence artificielle et linguistique : GPT-3 remplacera-t-il les journalistes ?
La société OpenAI, fondée par Elon Musk en 2015, a dévoilé cet été son algorithme GPT-3 ou Generative Pretrained Transformer 3, un fleuron en matière d’intelligence artificielle qui dénote de progrès considérables dans le domaine de l’écriture, mais qui rencontre toutefois ses limites.
Une innovation considérable
GPT-3, troisième du nom, est le fruit d’un travail pharaonique sur la linguistique et l’intelligence artificielle (IA) avec pour but de créer un algorithme capable d’écrire comme un humain. Jusqu’alors, diverses expériences avaient déjà été menées, mais les textes écrits par des IA étaient souvent partiellement insensés et faibles linguistiquement.
GPT-3 est à l’heure actuelle l’IA la plus développée dans ce domaine. Elle a été créé grâce au deep learning, un système d’apprentissage informatique qui tente de recréer les connexions neurales du cerveau humain. Concrètement, GPT-3 a en quelque sorte appris l’intégralité de l’Internet anglophone, en passant de manière anecdotique par l’ensemble de Wikipedia et des mots utilisés sur les réseaux sociaux, mais également par des millions de livres. Ces informations accumulées lui permettent de prévoir des enchainements logiques de mots pour former des textes sur des sujets donnés.
C’est, d’une part, sa facilité d’accès qui fait sortir du lot GPT-3. En effet, l’algorithme se présente simplement sous la forme d’une page sur laquelle l’utilisateur peut écrire une demande, que l’IA complétera instantanément. Par exemple, je pourrais formuler la requête suivante : « Je dois écrire un article sur un sujet x, d’une longueur d’une page, pour un public non averti, voici ce que j’ai fait… ». GPT-3 continuera alors mes propos en me proposant un article qui respectera mes directives. Si je précise que je m’adresse à un public connaisseur, le résultat sera tout autre et utilisera des termes techniques. GPT-3 a ainsi écrit un article pour The Guardian, et il serait difficile de le deviner sans le savoir.
Concernant cependant l’écriture d’articles d’actualité, il faudrait d’abord informer GPT-3, par exemple via le contenu d’une dépêche AFP, qui lui servirait alors de base pour l’écriture d’un article.
D’autre part, sa capacité d’écriture permet à GPT-3 d’être polymorphe, en s’adaptant à l’utilisation souhaitée : rédacteur de contenu, traducteur, chatbot pour assister des clients, artiste même, et depuis qu’il s’est appris lui-même à coder, développeur web.
Plus précisément, dans le domaine artistique, l’artiste Alexander Reben s’est par exemple servi de GPT-3 pour imaginer et décrire des œuvres fictives. Cela a donné lieu à des résultats farfelus. Entre autres, à partir de ses connaissances en histoire de l’art et des consignes données par Reden, GPT-3 a inventé un collectif d’artistes des années 70 dénommé The Plungers (Les Ventouses), appartenant au courant du Plungism, et qui aurait créé une œuvre titrée “A Short History of Plungers and Other Things That Go Plunge in the Night” (« Une Histoire Courte des Ventouses et Autres Choses Qui Vont Déboucher dans la Nuit »). GPT-3 décrit ensuite cette œuvre comme contenant « une ventouse, une ventouse pour toilettes, une ventouse, une ventouse, une ventouse, une ventouse, chacune d’entre elles ayant été modifiées. » Reben a ensuite pu créer de façon matérielle l’œuvre décrite, ce qui pose par ailleurs des questions de droit d’auteur.
Des limites encore récalcitrantes
Cependant, c’est du fait même de son apprentissage générique d’Internet, que GPT-3 reproduit également des énormités mises en ligne par l’homme, sans être capable de discerner le vrai du faux. À un test de Turing par exemple, GPT-3 s’est fait prendre à répondre « deux » à la question « combien d’yeux ont mes pieds ? » Il pourrait ainsi facilement être utilisé pour générer massivement des fake news.
Par ailleurs, il tient aussi très naturellement des propos racistes, antisémites ou sexistes. Certains développeurs amenés à l’utiliser lui ont ainsi demandé d’écrire des tweets à partir d’un mot-clé. Pour le mot « juif », GPT-3 propose des résultats tels que : « Les juifs ne lisent pas Mein Kampf, ils l’écrivent. »
Un dernier exemple peut être celui de la société française Nabla, qui a pensé à utiliser GPT-3 comme chatbot dans le domaine médical, bien qu’OpenAI ait déconseillé cette utilisation. À raison, semble-t-il, GPT-3 ayant pendant la phase d’essai conseillé à un patient simulé de se suicider.
Heureusement, OpenAI est bien consciente de ces limites, et c’est notamment pour cela qu’elle n’a pas voulu rendre libre d’accès le code de GPT-3, ce qui aurait permis à n’importe qui de s’en servir. Cependant, OpenAI encourage les développeurs à essayer l’algorithme, car, plus il y aura d’essais différents de ses possibles utilisations, plus l’algorithme pourra être optimisé.
Bien que Microsoft ait aujourd’hui une licence exclusive pour l’utilisation commerciale de GPT-3, quiconque souhaitant l’essayer peut donc toujours se voir accorder l’accès à une version d’essai après avoir répondu à une batterie de questions et s’être entretenu avec l’équipe d’OpenAI.
Finalement, bien qu’il constitue une avancée majeure en la matière, les rédacteurs de contenu ont encore de beaux jours devant eux, GPT-3 ne semblant toujours pas comprendre ce qu’elle écrit.
Ailleurs sur Lettres numériques :
- Rencontre avec Mathieu Zurstrassen : de l’humain vers l’intelligence artificielle
- Union Européenne : Intelligence artificielle et attribution des droits d’auteur sur Internet
Retrouvez Lettres Numériques sur Twitter, Facebook et LinkedIn.
— Nausicaa Plas