Pièces complète 2 euro commémorative et accessoires protection pièces

ChatGPT pourrait être une bonne nouvelle pour l'éthique … – Slate.fr

Erwan Lamy
Temps de lecture: 5 min
Il y a quelques semaines, le 30 novembre 2022, la société OpenAI a livré au monde une nouvelle intelligence artificielle spectaculaire, ChatGPT. Après DALL·E, qui génère des images à partir d’instructions rédigées en langage courant, ChatGPT est capable de mimer presque à la perfection des discussions entières, ou de répondre à des questions complexes en produisant des textes qui semblent tout droit sortis d’un cerveau humain.
Cette nouvelle avancée ne manque pas d’inquiéter, pour des raisons économiques (avec notamment la possible destruction de certains emplois), éthiques (avec par exemple le risque de voir les modèles de langage comme ChatGPT reprendre des discours racistes), ou «épistémiques», ce type d’IA ne faisant pas, à ce jour, la différence entre les informations fiables et les informations douteuses (le terme «épistémique» renvoie à la production ou l’acquisition de connaissances et d’informations fiables).
Il y a pourtant des raisons de penser que la démocratisation de ChatGPT et confrères pourrait être une bonne nouvelle, du moins pour notre rapport à l’information.
«L’intelligence artificielle peut être un danger épistémique parce qu’elle peut générer des informations convaincantes mais fausses. Cela pourrait remettre en question notre compréhension du monde ou même mettre en danger la validité de notre savoir. Cela a suscité des inquiétudes quant à la possibilité d’utiliser l’IA pour diffuser de la désinformation ou manipuler les croyances des gens.»
Ce n’est pas moi qui le dis, c’est… ChatGPT lui-même. Le paragraphe a été généré par cette IA en lui posant cette question: «En quoi l’intelligence artificielle est-elle un danger épistémique?» On le voit avec cet exemple, les réponses peuvent être très convaincantes. Et pourtant parfaitement sottes. Parfois la sottise saute aux yeux, parfois elle est moins facile à débusquer.
En l’occurrence, s’il n’y a pas grand-chose à redire à propos de la première phrase, la seconde est un cliché vide de sens: que veut dire au juste «remettre en question notre compréhension du monde» ou «mettre en danger la validité de notre savoir»? La troisième phrase est une simple idiotie: ces IA ne diffusent rien, et ne sont peut-être pas les plus adaptées pour «manipuler» (car on ne contrôle pas bien ce qu’elles produisent).
Mais c’est bien ça qui pose problème: il faut réfléchir pour découvrir le pot aux roses.
ChatGPT pourrait être une bonne nouvelle pour l'éthique ... - Slate.frÀ LIRE AUSSI
Une IA répond mieux aux demandes lorsque c’est une autre IA qui les formule
Ce qu’il faut comprendre, c’est que ChatGPT n’est pas programmé pour répondre à des questions, mais pour produire des textes crédibles.
Techniquement, ChatGPT est ce que l’on appelle un «modèle de langage». Un modèle de langage est un algorithme, basé sur des technologies développées ces dernières décennies (les réseaux de neurones, l’apprentissage profond…), capable de calculer la probabilité d’une séquence de mots à partir de l’analyse d’un corpus de textes préexistants. Il est d’autant plus performant que la quantité de texte qu’il a pu «lire» est grande. Dans le cas de ChatGPT, elle est absolument phénoménale.
Ainsi, étant donnée une certaine séquence de mots, ChatGPT est capable de déterminer la séquence de mots la plus probable qui pourrait venir la compléter. ChatGPT peut ainsi «répondre» à une question, de manière nécessairement crédible, puisqu’il calcule la réponse la plus probable. Mais il n’y a aucune logique ni réflexion dans cette réponse. Il n’y a rien de plus qu’un calcul de probabilités. ChatGPT ne se préoccupe pas le moins du monde de la vérité de ses réponses. Autrement dit, c’est un générateur de «bullshit».

Le «bullshit», depuis quelques années, n’est plus seulement une interjection anglo-américaine, traduisible en français par «foutaise» ou «fumisterie», mais aussi un concept philosophique, depuis que le philosophe Harry Frankfurt en a fait le sujet d’un article puis d’un livre dans les années 2000.
Aujourd’hui, ce sont des chercheurs très sérieux en psychologie, en philosophie, en neurosciences ou en sciences de gestion qui s’intéressent au bullshit. Le concept s’est complexifié mais on peut en retenir ici sa définition originale: le bullshit, c’est l’indifférence à la vérité. Ce n’est pas le mensonge: le menteur est préoccupé par la vérité, en sorte de mieux la travestir. Le bullshiteur, lui, s’en désintéresse et ne cherche qu’à captiver –ce qu’il dit peut parfois tomber juste, parfois non, peu importe.
C’est exactement le cas du très talentueux ChatGPT: lorsque ça ne tombe pas juste, ça ne se voit pas –ou pas immédiatement. Un super-générateur de bullshit, accessible à tous, très simple d’utilisation? Il y a bien de quoi être inquiet. On peut imaginer sans trop de peine comment cet instrument pourrait être employé très simplement par des éditeurs de contenu peu scrupuleux pour produire de l’«information», d’autant que ChatGPT semble bien pouvoir tromper même des experts académiques sur leurs propres sujets.
ChatGPT pourrait être une bonne nouvelle pour l'éthique ... - Slate.frÀ LIRE AUSSI
La grosse (et belle) colère de Nick Cave contre ChatGPT
Ce qui est en jeu, c’est une certaine éthique intellectuelle. Contrairement à une opinion très répandue, la production ou l’acquisition de connaissances (scientifiques ou non) n’est pas seulement une affaire de méthode. C’est aussi une affaire morale. Les philosophes parlent de vices ou de vertus «intellectuelles» (ou «épistémiques»), qui peuvent être définis comme des traits de caractère entravant ou au contraire facilitant l’acquisition et la production d’informations fiables.
L’ouverture d’esprit est un exemple de vertu épistémique, le dogmatisme un exemple de vice. Ces notions sont l’objet d’une littérature philosophique toujours plus abondante depuis le début des années 1990, l’épistémologie des vertus. Au départ essentiellement technique, puisqu’il s’agissait de définir correctement la connaissance, ces travaux concernent aussi aujourd’hui les problèmes épistémiques de notre temps: désinformation, fake news, bullshit notamment, ainsi bien sûr que les dangers soulevés par les intelligences artificielles.
Jusque récemment, les épistémologues des vertus discutant des conséquences épistémiques des IA portaient surtout leur attention aux «deepfakes», ces vidéos entièrement générées par des IA du type de DALL·E, et pouvant mettre en scène des individus bien réels dans des situations scabreuses parfaitement imaginaires mais saisissantes de réalisme. Les enseignements tirés de ces réflexions sur les deepfakes sont utiles pour penser les effets possibles de ChatGPT, et peut-être pour nuancer un pessimisme sans doute excessif.
La production de deepfakes est évidemment un problème, mais il est possible que leur généralisation puisse susciter dans le public l’apparition d’une forme de scepticisme généralisé à l’endroit des images, une forme de «cynisme intellectuel». L’auteur ayant formulé cette proposition (en 2022) y voit un vice épistémique, car cela conduirait à douter autant des informations faisandées que des informations fondées. Je ne suis pas certain qu’un tel cynisme serait si vicieux: ce serait équivalent à revenir à une époque, pas si lointaine, où l’image n’occupait pas une place si grande pour l’acquisition d’information. Il ne me semble pas que cette époque (avant les années 1930) eut été particulièrement vicieuse épistémiquement.
ChatGPT pourrait être une bonne nouvelle pour l'éthique ... - Slate.frÀ LIRE AUSSI
Dalida dans son bain artificiel: comme un problème d’éthique à l’«Hôtel du temps»
Quoi qu’il en soit, ce cynisme pourrait à son tour susciter le développement d’une vertu épistémique: une certaine «sensibilité numérique», qui permettrait de correctement discerner le bon grain de l’ivraie dans la masse des images et des vidéos circulant sur internet.
Une telle sensibilité numérique pourrait également être stimulée par ChatGPT. Les lecteurs des productions de cette IA, échaudés par le torrent de «bullshit» qu’elle risque de déverser, pourraient redoubler d’attention à la lecture d’un texte en ligne de la même manière qu’ils pourraient redoubler d’attention face à une image (de crainte d’être trompés par une deepfake) –sans pour autant tomber dans une forme de scepticisme généralisé.
D’un mal pourrait ainsi naître un bien. Plus généralement encore, la montée en puissance de ces IA pourrait mettre au premier plan la nécessité de cultiver les vertus épistémiques et de combattre les vices, comme la disposition trop commune à ne pas mettre en doute les théories conspirationnistes circulant sur les réseaux sociaux. Au bout du compte, ces technologies inquiétantes pourraient être une bonne nouvelle pour l’éthique intellectuelle.The Conversation
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
ChatGPT pourrait être une bonne nouvelle pour l'éthique ... - Slate.fr
Newsletters
La quotidienne
de Slate
Une sélection personnalisée des articles de Slate tous les matins dans votre boîte mail.
La kotiidienne
de korii.
Retrouvez chaque matin le meilleur des articles de korii, le site biz et tech par Slate.
Comment les YouTubeurs identitaires renforcent l’entre-soi dans la fachosphère
De plus en plus d’entreprises se présentant comme «patriotes» sont promues par les influenceurs d’extrême droite. Une tendance qui favorise l’émergence d’un système en vase clos.
Vincent Bresson 25 janvier 2023 Temps de lecture : 6 min
Bot!

Denis Pessin 23 janvier 2023
Les précurseurs du Wikipédia français se souviennent de ses débuts
En 2001, une (toute) petite poignée de francophones s’inscrivent sur Wikipédia. Ces «Grands Anciens» ne s’attendaient pas à un tel succès.
Vincent Bresson 20 janvier 2023 Temps de lecture : 4 min

source
https://netsolution.fr/gestion-de-la-production/

A propos de l'auteur

Avatar de Backlink pro
Backlink pro

Ajouter un commentaire

Backlink pro

Avatar de Backlink pro

Prenez contact avec nous

Les backlinks sont des liens d'autres sites web vers votre site web. Ils aident les internautes à trouver votre site et leur permettent de trouver plus facilement les informations qu'ils recherchent. Plus votre site Web possède de liens retour, plus les internautes sont susceptibles de le visiter.

Contact

Map for 12 rue lakanal 75015 PARIS FRANCE