ChatGPT : enthousiasme ou inquiétude ?

ChatGPT

Depuis plusieurs semaines ChatGPT fait l’actualité. Encore au stade de prototype, c’est est une sorte de super bot conversationnel développé par OpenAI.

Son objectif est de répondre à toutes vos questions, sur n’importe quel sujet, comme le droit, le code informatique, des questions plus générales, etc.

Pour ceux qui ne connaissent pas encore ChatGPT, je vous invite à ouvrir un compte gratuitement sur le site d’OpenAI pour le tester. Je suis certain que vous serez bluffé comme moi j’ai pu l’être.

J’ai donc testé ChatGPT en commençant par lui donner quelques exercices de logique.

  • Un premier exemple est l’énigme des boules noires et blanches. Trois personnes sont assises en triangle dans une pièce et chacun a sur sa tête (en aveugle), une boule qui est soit noire soit blanche, parmi un total possible de 3 blanches et 2 noires. Si je suis une de ces personnes, et si je vois que les deux autres ont chacune une boule blanche sur la tête, j’attends un peu et constatant que personne ne réagit, alors je peux dire avec certitude que moi aussi j’ai une boule blanche sur la tête. Mais quel est le raisonnement ? ChatGPT a su résoudre partiellement cette énigme.
  • Je l’ai aussi interrogé sur un problème très proche de celui de Monty Hall, en précisant que l’animateur n’a pas connaissance de la porte qui cache la récompense. ChatGPT est parvenu à me donner la bonne probabilité, et mieux encore, il m’a expliqué en quoi mon énigme était différente de celle de Monty Hall… Autant vous dire tout de suite, cette première série de questions / réponses m’a sincèrement impressionné.

Je décide alors de lui demander de coder une fonction en JavaScript qui prend en paramètre une variable, et qui retourne si oui ou non la variable contient une adresse email. Non seulement ChatGPT a codé correctement la fonction, mais lorsque je lui indique « je préfère que tu retournes true quand il y a un email… » ChatGPT me dit que j’ai raison (il n’est pas très contrariant), et le voilà qui change la fonction en modifiant son code.

Ensuite je lui demande de réécrire cette fonction, en COBOL, puis en Assembleur. Aucun souci pour ChatGPT. Enfin, j’ai identifié un bug dans son code. Lorsque le paramètre de la fonction est null, ChatGPT ne le teste pas. Je l’interroge alors : « il se passerait quoi si le paramètre est à null ? » ChatGPT s’excuse (encore), et corrige immédiatement le code de sa fonction. C’est extrêmement impressionnant !

Les limites de ChatGPT

Vous l’aurez compris, ces premiers tests de ChatGPT m’ont bluffé.On est très loin des Alexa, Siri et autres assistants.

Néanmoins, cette application a un certain nombre de limites, et voici celles qui sont pour moi les plus importantes :

  1. Chat GPT repose sur une version avancée du modèle GPT-3 d’OpenAI. GPT-3 est actuellement l’un des plus gros modèles de langage jamais entraîné avec 175 milliards de paramètres. Et ceci est uniquement pour le modèle de base (probablement plus pour la version qui a été utilisée par ChatGPT). Ce chiffre ne doit pas parler à tout le monde. Alors pour se faire une idée, il a été estimé que pour faire tenir ce modèle dans la mémoire vive d’un ordinateur, celui-ci devrait posséder environ 700 Go de RAM. Oubliez donc l’idée de le faire tourner sur un Raspberry Pi ! Toujours sur les ordres de grandeur, voyons ce qu’il en est de l’entraînement de GPT-3 (étape principale qui permet de constituer le modèle). Certains ont calculé qu’une machine V100 seule (c’est la référence d’une machine avec un hardware spécialisé pour optimiser et réaliser les phases d’apprentissage de modèles comme GPT-3) aurait besoin de 288 ans pour terminer cet apprentissage. Microsoft a donc mis à disposition sur Azure un certain nombre de V100 afin qu’OpenAI puisse paralléliser l’ensemble des calculs et réaliser le modèle GPT-3. La durée d’entraînement nécessaire est donc ramenée à plusieurs mois seulement. Il est estimé que le coût financier pour constituer ce modèle est autour de 4,6 millions de dollars, uniquement en puissance de calcul sur Azure. Voilà pour les ordres de grandeur, et nous pouvons faire deux commentaires à ce stade. Ce n’est pas à la portée de tout le monde de refaire un modèle comme GPT-3 et l’empreinte carbone juste pour constituer un seul modèle est colossale.
  2. Aussitôt créé, mais déjà obsolète. Le modèle GPT-3 est constitué d’un ensemble de données (web, réseaux sociaux, Wikipédia, etc.) qui date de 2021 pour la version utilisée par ChatGPT. Les connaissances entraînées dans GPT-3 s’arrêtent donc à 2021. Tous les événements ayant eu lieu depuis ne sont pas pris en compte. Lorsqu’on demande à ChatGPT qui est le CEO actuel de Twitter, il nous répond naturellement que c’est Jack Dorsey. Et lorsqu’on lui indique que ce n’est plus lui, il nous avoue que ses connaissances s’arrêtent à 2021. Dans ce cas, la limite est le coût financier et informatique dans la création d’une nouvelle version plus à jour, qui ne peut pas se faire en temps réel comme l’indexation de sites web par Google.
  3. La dernière limite de ChatGPT, qui à mon humble avis est l’une des plus importantes, est qu’il arrive qu’il se trompe, ou mente en faisant croire qu’il sait lorsqu’il ne sait pas. Eh oui, ChatGPT est victime d’une forme d’ultracrépidarianisme (cf. Etienne KLEIN dans Le goût du vrai). Le problème ici se situe dans la qualité des données apprises en entrée. Il est en effet très facile de biaiser une intelligence dite « artificielle » en lui faisant apprendre des choses fausses. Et même si OpenAI a pris des précautions sur la qualité des données utilisées pour entraîner ses modèles, on se rend compte malgré tout que ChatGPT se trompe ou ment parfois. Cela peut alors devenir un problème si ce genre d’application devient une source de référence d’information pour tout le monde. Car oui, ChatGPT peut potentiellement produire de fausses informations, de faux articles scientifiques qui pourront servir ensuite de caisse de résonance. Ces dernières années ont malheureusement montré à quel point nos sociétés peuvent être fragilisées par l’utilisation de fausses informations. Il est alors crucial au moment où la recherche avance de manière spectaculaire dans ces domaines, de consacrer  également des moyens dans la sécurité de ces algorithmes. On l’a vu encore récemment, lorsque Google a licencié ses chercheurs responsables de la sécurité et de l’éthique dans l’application de leurs propres algorithmes. 

La concurrence ChatGPT

Puisqu’on parle de Google, j’entends que ChatGPT va bientôt remplacer Google, ou bien que Google est très inquiet à propos de ChatGPT. Vous avez déjà compris dans les limites exposées plus haut, qu’à ce jour ChatGPT ne peut pas remplacer tel quel Google dans son travail d’indexation du web. 

Le coût financier et informatique de cette méthode d’apprentissage ne peut pas se faire en quasi-temps réel.

Aussi, Google travaille depuis plusieurs années sur sa version de ChatGPT qui s’appelle LaMDA. La différence importante est que Google a bien compris que cette limite technologique du coût d’apprentissage est un mur en tant que tel. Ses équipes travaillent ainsi sur l’architecture PATHWAYS. Elle a pour principale différence d’être en mesure de mettre à jour ses modèles au fur et à mesure que les données sont collectées. On est sur une approche où plusieurs modèles cohabitent afin de former un ensemble capable de s’adapter dynamiquement. Je ne sais pas à l’heure où j’écris ces lignes à quel point et si, fonctionnellement, l’approche de Google est proche ou non de celle de ChatGPT. mais Google sait très bien que son avenir va se jouer ici. L’application Google Search a un besoin vital de ces technologies pour améliorer l’expérience de ses utilisateurs. 

Et Agora Software dans tout ça ? 

Rassurez-vous, nous ne comparons pas Agora à ChatGPT. Ce serait prétentieux de notre part et nous n’avons pas les mêmes objectifs. 

Celui de ChatGPT est de proposer une application disons « omnisciente » capable de répondre à toutes vos questions et résoudre beaucoup de vos problèmes. 

Chez Agora, notre objectif est de créer des interfaces conversationnelles applicatives ciblées.  Depuis plusieurs années, nous travaillons sur notre coeur techno GAEL qui est notre propre NLP (ou TAL en français : Traitement Automatique du Langage). 

Nous avons développé une expertise pour permettre à des éditeurs, des plateformes diverses, des collectivités ou des entreprises de créer des bots qui vont traduire du langage naturel en appels API (interface de programmation d’une application) vers telle ou telle application. GAEL a l’originalité de ne pas être centralisé, et peut se déployer et se distribuer dans des conteneurs dédiées aux projets de nos clients. 

Aussi, nous avons organisé GAEL par classes d’apprentissage. C’est un concept propre à Agora Software qui permet de superviser directement vos projets à partir de notre console d’administration. Ainsi, chaque client peut produire ses propres données d’apprentissage pour créer une classe Agora unique qui sera ensuite testée, puis appliquée dans le contexte application dédié au projet du client. 

Enfin GAEL est léger. Il faut moins d’une minute pour finaliser le processus d’apprentissage pour créer une classe et le modèle tient facilement dans un Raspberry Pi. Vous vous en doutez, avec une faible empreinte mémoire et CPU, l’empreinte carbone est nettement diminuée. 

Dans ces conditions, notre NLP n’a pas vocation à être « omniscient » et à répondre à toutes les questions, car son champ de compétences s’arrêtera là où s’arrête fonctionnellement l’application sur laquelle GAEL est connecté. 

La force de notre solution est de donner de la liberté à nos clients, tout en restant dans un environnement totalement dédié et sécurisé, limitant au maximum le partage des données entre les projets. 

Agora Software s’appuie sur une plateforme cloud décentralisée et multitenante, rendant possible la connexion de votre projet à n’importe quelle plateforme collaborative et permettant de lier en multilingues vos différents utilisateurs, qu’ils interagissent par exemple sur MS Teams, Google Chat, WhatsApp, Messenger ou encore par SMS, via une interface conversationnelle Agora. 

Nous proposons une approche intra-omni-canale et multilingue, dans l’esprit de réutiliser au maximum les outils déjà déployés par nos clients (plateformes collaboratives, réseaux sociaux, SMS, etc.) avec l’avantage de communiquer directement avec les utilisateurs là où ils se trouvent déjà. 

Conclusion

ChatGPT représente incontestablement l’état de l’art technique de ce qui se fait de mieux aujourd’hui dans cette discipline. Les résultats proposés sont spectaculaires et montrent à eux seuls les progrès techniques incroyables accomplis ces dernières années. 

Néanmoins, ChatGPT n’est pas réellement capable de remplacer un être humain. Il a été entraîné uniquement via des mots ou des corpus de phrases, tandis que la pleine compréhension d’une phrase nécessite souvent la prise en compte plus profonde de son contexte d’apparition ainsi que d’éléments non verbaux. 

ChatGPT et les autres systèmes similaires sont de formidables outils qui permettront d’augmenter la productivité dans bien des secteurs, ou d’aider à diagnostiquer tel ou tel sujet. Ces systèmes reproduiront d’une manière plus ou moins fidèle les éléments appris, dans les limites de ce que ces technologies permettent d’apprendre aujourd’hui. Ils changeront probablement nos vies mais sans jamais nous remplacer. Et pour le meilleur comme pour le pire, un marteau est aussi un outil avec lequel on plante des clous ou on se tape sur les doigts. 

Pour citer Jabob Browning et Yann LeCun (cf. L’IA et les limites du langage) : « il est clair que ces systèmes sont voués à une compréhension superficielle qui ne se rapprochera jamais de la pensée complète que nous voyons chez les humains ». 

Je précise que cet article n’a pas été écrit par ChatGPT 😊 et je vous invite à consulter toutes les sources en référence trouvées pour son écriture (elles sont dans le texte).

Si cet article vous a intéressé, consultez notre page dédiée aux projets worktech, et n’hésitez pas à nous contacter si vous souhaitez discuter d’un projet avec nous. 

Abonnez-vous à notre page LinkedIn pour suivre notre actualité ! 

Souhaitez-vous aller plus loin et découvrir comment la combinaison [langage naturel + processus no-code] peut contribuer au succès des projets de transformation digitale et IoT de votre organisation ?