Impressionnant, talentueux et précis – ChatGPT conquiert le monde. A quoi peut servir cette technologie au quotidien et dans quelle mesure le «chatbot» accomplit-il ses tâches en toute liberté de choix? Nous nous sommes entretenus avec Prof. Dr. Thilo Stadelmann, responsable du Centre for Artificial Intelligence de la ZHAW, à propos de ChatGPT, le chatbot créé par l’entreprise OpenAI.

Monsieur Stadelmann, ChatGPT est LE thème du moment. Comment expliquez-vous cet engouement médiatique? 

Cet outil est très utile et fonctionne bien. Certes, la technologie sous-jacente existe depuis un certain temps déjà – nous parlons ici de deux à cinq ans -, mais ce qui est nouveau, c’est que cette technologie est très utile dans de nombreux domaines. 

Elle semble en effet capable de tout faire. Dans quel domaine peut-elle déployer son potentiel maximal selon vous: dans l’économie, dans la politique ou tout simplement dans notre quotidien? 

ChatGPT peut être utilisé comme auxiliaire pour de nombreuses tâches. On peut lui confier n’importe quel travail ou presque: écrire des textes de blog, rédiger des e-mails et même programmer. Un développeur expérimenté de mon équipe effectue désormais sa charge de travail hebdomadaire en une journée. Il n’a donc besoin que de 20% de son temps pour accomplir le même travail, c’est incroyable. Pour cela, il utilise CodePilot, une application également créée par OpenAI. Cette application ne peut pas remplacer le développeur informatique mais elle est incroyablement utile car il sait comment l’utiliser.

Et c’est précisément l’aspect déterminant: ChatGPT n’est pas adapté à l’automatisation complète, il a ses limites. Ses réponses ne sont pas fiables à 100%. Le chatbot écrit parfois des choses absolument fausses. 

ChatGPT peut-il aussi fournir des conseils financiers?

Comment placer son argent de manière rentable? Peut-on utiliser l’intelligence artificielle pour élaborer une stratégie financière personnelle? Nous avons demandé conseil à ChatGPT. Découvrez le résultat ici.

Peut-être que ces informations erronées appartiendront bientôt au passé. Après tout, la technologie évolue à un rythme effréné actuellement. 

Avec la technologie actuelle, il n’est pas possible d’éliminer complètement les erreurs. En effet, le chatbot ne peut pas faire la distinction entre ce qu’il invente et ce qui existe réellement, car il n’a pas les notions nécessaires.  Par exemple, nous avons recherché des intervenantes et des intervenants pour une conférence et avons interrogé ChatGPT pour qu’il nous propose des noms, juste pour voir. Nous connaissions les six premiers noms de la liste: il s’agissait exclusivement d’expertes et d’experts chevronnés dans leur domaine. Et il y a eu une septième personne. Aucun d’entre nous ne la connaissait. Mais selon ChatGPT, son profil correspondait exactement à la thématique que nous recherchions.

J’ai cherché son nom sur Google. Il s’est avéré que cette personne existait, il s’agissait d’une fonctionnaire au Parlement européen, mais toutes les autres informations étaient erronées. Ni l’université, ni l’association, ni la chaire indiquée n’étaient correctes. Nous avons été induits en erreur ici: certes, les informations sur les autres intervenantes et intervenants étaient exactes, mais ChatGPT s’est totalement trompé en proposant le nom de cette femme.

Cet exemple le montre: l’expertise et le savoir-faire humains sont nécessaires pour s’assurer que les informations fournies sont exploitables et authentiques. 

ThiloStadelmann_ChatGPT

Thilo Stadelmann

Prof. Dr. Thilo Stadelmann est responsable du Centre for Artificial Intelligence de la Haute école zurichoise des sciences appliquées (ZHAW). Il est professeur, consultant, conférencier et chercheur dans le domaine de l’intelligence artificielle.

En bref, ce n’est pas vraiment une bonne idée de demander à ChatGPT de rédiger des textes sur un sujet que l’on ne maîtrise pas? 

Si j’interroge ChatGPT sur un sujet que je ne connais absolument pas, je peux sans hésiter m’abstenir de l’utiliser.  Récemment, peu de temps après le lancement de ChatGPT, une amie a dû rendre un travail. Elle en avait déjà rédigé une grande partie. Par curiosité, nous avons vérifié comment ChatGPT aurait rédigé ce travail. Et bien, figurez-vous que le chatbot a rédigé l’un des chapitres en un temps record et a même mentionné une source supplémentaire par rapport à la version manuscrite. C’était assez impressionnant. Mon amie avait consacré six mois à ce travail, tandis que ChatGPT faisait la même chose en quelques minutes.

Cet exemple, en plus de celui cité ci-dessus à propos de la liste des intervenantes et intervenants, nous amène à la conclusion suivante: si je sais dans quel but je veux utiliser ChatGPT et que j’ai une certaine connaissance du sujet, cette technologie va beaucoup m’apporter. En revanche, si je ne sais pas grand-chose sur le sujet et que je fais aveuglément confiance à ChatGPT, je risque de tomber de haut. En bref: plus nous sommes spécialisés dans le domaine concerné, plus cet outil nous sera utile. Ce sera aussi le cas dans les années à venir. 

ChatGPT donne des réponses étonnamment élégantes. On n’a pas du tout l’impression d’avoir affaire à une machine. Surtout, les réponses à une même question ne sont pas formulées de la même manière. Il semblerait presque que ce chatbot ait sa propre personnalité. Dans quelle mesure une telle machine est-elle libre de ses choix?

C’est une bonne question. La liberté de choix, c’est à dire l’autonomie, est un bon sujet dans le contexte de l’intelligence artificielle. Car c’est avec ces valeurs qu’on se détache de concepts difficiles à appréhender, comme la conscience. On pourrait aussi poser la question autrement: «Dans ce cas, quel est le degré de liberté de choix judicieux?»

Supposons que, dans quelques années, ChatGPT et consorts deviennent des assistants personnels. Un peu comme dans StarTrek, où les ordinateurs communiquaient avec les humains et leur donnaient les tâches à exécuter. On ne s’est pas posé la question de savoir si l’ordinateur avait une conscience. Il était tout simplement utile.

Pour nous autres, la liberté de choix et l’autonomie sont importantes, et ce pour de nombreuses raisons. Mais est-ce important pour la machine? Un système informatique peut posséder la quantité de mémoire que l’on souhaite lui donner, sa durée de vie peut être aussi longue que l’on veut et il peut être utilisé simultanément en différents endroits du globe. Est-ce que l’on veut qu’un tel système agisse en toute liberté de choix? Cela n’a pas de sens.

La liberté de choix est importante pour les êtres sensibles, c’est-à-dire nous autres. Le but n’est pas de donner la liberté de choix à une création technique. Sa finalité est qu’elle nous aide à vivre selon nos propres choix. Cela crée également une connexion fantastique avec ChatGPT.

ChatGPT peut être utilisé comme auxiliaire pour de nombreuses tâches. Cet outil est incroyablement utile, mais il a besoin de notre expertise et de notre savoir-faire pour déterminer si les informations qu’il fournit sont exploitables et authentiques – car il arrive que ChatGPT se trompe.

Le chatbot a ses limites. Pourtant, il est utile et surtout révolutionnaire. On dit souvent que son lancement est aussi important que l’introduction du smartphone. 

J’irais même plus loin. Je dirais que la dernière invention d’une telle ampleur, c’est l’avènement d’Internet à des fins commerciales. C’était dans les années 1993-1994. A ses débuts, l’Internet était peu esthétique. Il était très limité et n’avait pas de belles applications. Mais il n’était plus réservé aux geeks: il est utile, il peut nous apporter quelque chose et il a été créé pour durer. Le lancement d’Internet a changé le monde. Voilà où nous en sommes aujourd’hui. Et ce n’est pas lié aux progrès considérables de la technologie ces derniers temps, mais au fait que nous avons à présent trouvé un cas d’utilisation. ChatGPT est tout simplement une application à l’efficacité redoutable. 

Mais beaucoup craignent que l’intelligence artificielle ne supprime des emplois. 

Voici ce que je dis à mes étudiantes et étudiants depuis des années: les tâches, aussi complexes et difficiles soient-elles, peuvent être automatisées si elles sont répétitives. Les exemples que nous venons de voir l’illustrent très bien. Nous pouvons partir du principe qu’à l’avenir, certaines tâches n’auront plus besoin d’être accomplies par des personnes comme c’est le cas aujourd’hui.

Pourtant, la peur de cette technologie n’est pas justifiée. Elle peut considérablement nous simplifier la vie. Microsoft a récemment investi dix milliards de dollars dans le laboratoire de recherche de la société qui a créé ChatGPT. Imaginez par exemple que cette technologie soit intégrée à PowerPoint et que, pour votre prochaine réunion professionnelle, vous puissiez créer facilement vos slides en quelques minutes par simple pression sur un bouton à partir d’un fichier Word et que vous n’ayez plus qu’à parcourir votre présentation pour finaliser vos slides.

Je peux aussi obtenir un modèle pour le courrier obligatoire de fin d’année: «Chères collaboratrices, chers collaborateurs, merci de votre précieuse collaboration…». Il ne s’agit pas d’automatiser l’estime et la touche personnelle, ce serait stupide. Mais l’utilisation de l’IA peut m’aider à surmonter l’angoisse de la page blanche et à me consacrer plus efficacement à ce qui compte vraiment: mes collaboratrices et collaborateurs. 

ChatGPT_KI_animation
Futuristic robot artificial intelligence revolutionary AI technology development and machine learning concept. Global robotic bionic science research for future of human life. 3D rendering graphic.

Malgré toute son utilité, il y a aussi la crainte que l’IA ne prenne un jour le pouvoir sur nous. 

Il y a quelques années, Stuart Russell, l’une des grandes figures de l’IA et co-auteur de l’ouvrage essentiel sur ce thème, a publié un autre livre. Celui-ci s’intitule «Human Compatible» et aborde la question de savoir dans quelles conditions les systèmes d’IA seraient de toute évidence sûrs pour nous, en supposant qu’ils deviennent aussi intelligents que nous, voire plus intelligents. Le professeur Russell – et je partage son avis – trouve ce scénario peu réaliste, même s’il ne faut pas totalement l’exclure.

Si une telle situation devait réellement se produire sans que nous ayons pris des mesures de précaution, un tel système pourrait en théorie devenir une menace pour nous. Si un système d’intelligence artificielle a par exemple pour devise «Fais tout pour protéger l’environnement», il pourrait penser que les êtres humains sont un problème pour celui-ci parce qu’ils brûlent du pétrole et commettent d’autres bêtises. Tout cela n’est que pure spéculation et je pense qu’un tel scénario est irréaliste, mais la probabilité n’est pas nulle.  

Dans son livre, Stuart Russell explique ce qu’il est possible de faire aujourd’hui pour éviter de tels scénarios. La seule chose réalisable est de veiller à ce que de tels systèmes ne soient pas libres de leurs choix, mais qu’ils aient toujours l’être humain comme point de référence. Il est important qu’ils n’aient pas un objectif fixe, comme «Fais tout pour protéger l’environnement», mais qu’on leur donne la mission suivante: «Découvre ce que veulent les personnes qui sont tes parties prenantes ou sur lesquelles tu exerces une influence, et agis dans le sens de cet objectif.» S’adapter constamment aux préférences humaines: tels doivent être l’objectif ultime du système et son instance de contrôle supérieur.

Si l’on considère cela comme l’objectif central du système, c’est tout l’inverse de la liberté de choix. Ces systèmes ont vocation à recourir aux capacités de tiers et à rendre service. Nous avons alors une IA absolument sûre et son intelligence peut être développée à volonté. Ce concept s’appelle «AI Alignment»: comment pouvons-nous aligner l’IA sur des objectifs humains? Dans ChatGPT, une première procédure d’alignement de l’IA a été effectuée pour «apprivoiser» le chatbot.

L’intelligence artificielle ne doit pas avoir pour but d’être libre de ses choix, mais doit toujours avoir l’être humain comme point de référence pour être au service de celui-ci. Si nous développons l’IA selon ce principe, elle est absolument sans danger et peut atteindre le niveau d’intelligence que l’on souhaite lui donner.

Cela annonce de grands changements. Les optimistes diraient que cela pourrait être aussi une opportunité. Si la machine nous délestait d’autant de tâches et faisait notre travail, nous aurions à nouveau plus de temps pour mener une vie en toute liberté de choix. 

C’est tout à fait possible. Toutefois, les 70 dernières années ont montré qu’avec l’automatisation croissante, nous n’avons pas forcément eu plus de temps libre. Nous avons plutôt peur de devenir inutiles et travaillons donc encore plus.

Bien sûr, il est possible qu’un jour, nous parvenions à vivre un peu plus sereinement, mais pour cela, les possibilités techniques ne suffiront sans doute pas.

Nous pouvons toutefois faire le constat suivant: pendant 70 ans, nous avons toujours conçu des choses dont nous savions à quoi elles serviraient. Et à présent, nous avons une machine qui peut accomplir toutes sortes de tâches et qui sera rapidement perfectionnée. C’est une nouveauté, cela n’existait pas avant. Comme nous l’avons évoqué précédemment, il y a ce scénario de la singularité, qui fait référence à la date future à laquelle l’intelligence artificielle surpassera l’intelligence humaine. Comme je l’ai dit, je ne crois pas à un tel scénario. Mais ce qui va augmenter, c’est l’utilité générale de systèmes tels que ChatGPT. Ce que nous avons ici, c’est une singularité de l’utilité.

Ces machines peuvent nous aider dans de nombreuses tâches et nous permettre de les accomplir plus rapidement et plus efficacement. Mais il est important de garder ceci à l’esprit: ces systèmes font aussi des erreurs. Réfléchir soi-même et ne pas se fier aveuglément à ces systèmes est un précieux conseil dans l’utilisation de ChatGPT et consorts. 

Autres articles interessantes

Personnes

Matilda et son don pour le délicieux café

Lire plus

Personnes

De la banque aux épices

Lire plus

Santé

Changer ses habitudes? Ben voyons!

Lire plus