Pièces complète 2 euro commémorative et accessoires protection pièces

« Touchons-nous du doigt une conscience nommée ChatGPT … – The European Scientist FR

Cela fera bientôt deux mois que ChatGPT fait la une des chroniques et suscite toutes sortes de fantasmes. Raisons du succès de cet IA, innovation effrayante ou non événement, impact sur nos sociétés, rapport à la singularité et au trans-humanisme, instrumentalisation politique… l’expert Marc Rameaux, auteur de nombreux textes sur l’IA dans nos colonnes répond à toutes ces questions. Une interview fleuve qui lance une série de débats que nous allons poursuivre sur le sujet. 
Jean-Paul Oury : Pouvez-vous nous expliquer en quelques mots ce qu’est Chat GPT et pourquoi elle remporte un tel succès auprès de tous les publics ? 
Marc Rameaux : Chat GPT est un agent conversationnel : vous pouvez lui poser des questions en langage naturel, comme si vous vous adressiez à une personne, et il vous apporte une réponse. Il peut également rédiger un article sur un sujet que vous lui demandez d’exposer, voire composer un poème. Chat GPT désigne l’interface de conversation, mais le « moteur » de traitement qu’il utilise pour répondre est GPT-3, développé par la société Open AI, qui est un modèle linguistique et un générateur de texte.
Son succès considérable tient au fait que les réponses de Chat GPT, par leur précision, leur nuance et leur forme très proche du langage parlé par une personne sont souvent indiscernables de celles apportées par un être humain.
Disons-le sans ambages, Chat GPT réussit en grande partie le test de Turing ! 
De plus, les rapprochements opérés par ChatGPT entre des thématiques, des phrases, des notions provenant de différents corpus linguistiques donnent l’impression d’une créativité dans ses réponses. Il ne se contente pas de restituer la fiche wikipédia du sujet qui vous intéresse, mais tient compte des demandes spécifiques de votre question. Par exemple sur des questions portant sur des personnages controversés de l’histoire (Napoléon Bonaparte était-il un grand homme ou un tyran sanguinaire ?), il compose une argumentation complète soupesant les aspects selon lesquels il peut être considéré comme l’un ou l’autre.
Ces performances proviennent de la taille exceptionnelle et inédite du corpus linguistique sur lequel il a été entrainé : 175 milliards de paramètres, plusieurs centaines de milliards d’unités textuelles. Les précédentes versions de tels agents conversationnels présentaient encore des maladresses ou des défauts importants. 
Cette version apporte des réponses difficilement discernables de celles d’un être humain. ChatGPT a d’ailleurs déjà été employé de façon frauduleuse en situation scolaire, pour rédiger entièrement des exposés ou des articles, sans que les professeurs ou examinateurs puissent repérer qu’il s’agissait de la production d’une machine. Le test de Turing a bel et bien été réussi avec succès en conditions réelles avec de vraies personnes !
JPO. : Répondant à un tweet de Sam Altman, fondateur d’Open AI sur les facultés de son robot, Elon Musk a commenté « ChatGPT fait peur. Nous ne sommes pas loin d’une IA dangereusement puissante. » Qu’en pensez-vous ?
ChatGPT is scary good. We are not far from dangerously strong AI.
— Mr. Tweet (@elonmusk) December 3, 2022

M.R. : Ce commentaire de Musk est la conséquence directe de la puissance exposée précédemment :
ChatGPT crée en premier lieu des menaces concrètes immédiates. Le contrôle d’utilisations frauduleuses dans le milieu scolaire et universitaire semble très difficile à mettre en place. Le danger d’une perte de créativité, de capacité de rédaction et d’esprit de synthèse chez les scolaires et étudiants devient critique, problème que l’existence de Wikipédia posait déjà, mais à une bien moindre échelle. De nombreuses professions pourraient être menacées, à commencer par celle de journaliste, et plus généralement de toute personne devant rendre des rapports de synthèse ou des articles.
Parmi les risques plus éloignés mais réels, se pose la question de décisions politiques majeures prises sur la base de rapports de synthèse rédigés par une intelligence artificielle.
La prétention à l’objectivité – nous y reviendrons – de la production par une machine peut amener l’humain à démissionner de la responsabilité de ses décisions, s’en remettant à cet oracle de Delphes 3.0.
Ce risque n’est pas nouveau : les statistiques ou la mathématisation de l’économie ont été employées plus d’une fois par des responsables politiques pour ne pas assumer leur prise de décision, mais les présenter comme découlant mécaniquement et objectivement d’un engrenage implacable et indiscutable. Un danger aussi menaçant pour la liberté individuelle et politique que pour la qualité de la pensée.
Enfin, ce n’est plus un risque avéré mais une interrogation : sommes-nous en présence du premier pas vers une « IA forte », c’est-à-dire une intelligence rivalisant voire dépassant l’intelligence humaine dans toutes ses dimensions, y compris celles qui nous semblaient réservées, jusqu’à la création de véritables êtres conscients artificiels ?
Musk sous-entend à mon avis les trois types de danger derrière sa remarque : immédiats sur la fraude et le remplacement de compétences, à moyen-terme sur la prise de décision confiée à une machine et à long-terme sur la confrontation de l’homme avec une conscience artificielle.
JPO. : Plus rassurant Yann LeCun, l’un des plus grands experts français de l’IA a jugé que ChatGPT « n’a rien de révolutionnaire » (1) Quelles raisons avons-nous de le croire ?
M.R. : Avec tout le respect que je porte à LeCun, un très grand professionnel de l’IA qui n’a jamais renoncé à « mettre la main à la pâte » des disciplines pratiques du Data Scientist, je ne partage pas son avis.
Sur le pur plan algorithmique, GPT-3 et ChatGPT ne diffèrent effectivement en rien de nombreux systèmes de NLP (2) déjà présents en 2019 : apprentissage supervisé et par renforcement sur des DNN (3), emploi des modèles neuronaux LSTM (4) afin de tenir compte des besoins de mémoire longue portée dans l’analyse d’un texte, modèles markoviens (5) de génération textuelle. 
Mais comme Le Cun le sait pertinemment, la valeur ajoutée d’un travail en Data Science dépend de trois domaines et non de la seule originalité de l’algorithmie. Le volume, la qualité, la structuration et la labélisation du corpus de données est un deuxième facteur prépondérant. Et enfin la méthode d’apprentissage, c’est-à-dire la stratégie de présentation des jeux de données afin de faire comprendre implicitement à la machine l’objet de l’apprentissage, couplé aux structures du DNN, est un troisième point fondamental, peut-être le plus important de tous, dans la valeur du travail d’un Data Scientist.
Si LeCun a raison de noter que sur le premier point, OpenAI ne se distingue pas de ses concurrents, force est de constater que ce n’est pas le cas pour le deuxième et le troisième point. Le corpus de données sémantiques est considérable et la stratégie d’apprentissage n’a pu être que fortement novatrice : il ne suffit pas en effet d’alimenter la machine avec le plus grand volume de données possibles. Faire en sorte que le modèle linguistique forme un tout cohérent, capable d’associer des parties très éparses de son immense base de façon pertinente, représente un tour de force remarquable. Et la cohérence des réponses de ChatGPT est telle qu’elle atteint les limites de l’effrayant. La réponse de LeCun n’est probablement pas dénuée d’un certain biais de concurrence entre deux compagnies en lice pour la course à l’IA.
JPO. : En 2018, vous avez publié dans nos colonnes un texte intitulé « Ce qu’est l’IA et ce qu’elle n’est pas » dans lequel vous proposez quatre définitions. L’arrivée de ChatGPT change-t-elle quelque chose à votre vision de l’époque ? 
M.R. : L’arrivé de ChatGPT ne change rien à cet article, car celui-ci tentait de définir ce qui relève de l’IA et ce qui n’en relève pas. Or la question que pose ChatGPT n’est pas celle-ci : il relève parfaitement de l’IA selon l’application des critères que je propose.
La question qu’il pose est subséquente : étant incontestablement un développement d’IA, quelles sont les limites de sa puissance ? 
JPO. : Chat GPT redonne-t-elle corps aux grandes peurs de l’IA ? Celle de Harrari qui pense qu’un jour on produira un algorithme non organique qui surpasse l’homme ? Ou encore celle de Frey et Osborne (7), selon qui, elle finira par prendre nos emplois ? Quid de la troisième loi d’Asimov (8) ?
M.R. : Incontestablement, le succès et le « buzz » considérable de ChatGPT sont dus à ce mélange d’enthousiasme et de terreur. La nouveauté est que ce mélange détonnant était jusqu’à maintenant un artifice de communication journalistique mais qu’il est à présent une réalité. Les risques de court-terme sont concrets et parfaitement réels :
chaos semé dans le milieu scolaire, affaiblissement des capacités cognitives humaines si elles se reposent trop sur ce type d’outil, menaces sur l’emploi de nombreuses professions.
Il peut être objecté que tout progrès technique a permis à l’homme de se décharger de certaines tâches, afin de se consacrer à d’autres éventuellement plus enrichissantes et instructives. Cependant, ce raisonnement n’est valable que pour des tâches répétitives et sans grand intérêt. Sommes-nous prêts à dire que l’esprit de synthèse et la structuration d’esprit nécessaires à la rédaction d’un texte font partie de ces tâches inutiles ? Je pense pour ma part que nous risquons fortement de jeter le bébé avec l’eau du bain et qu’une utilisation incontrôlée de cet outil pour toutes les tâches de rédaction aboutira à court terme à une fabrique du crétin 3.0 telle que Jean-Paul Brighelli lui-même n’aurait pu l’imaginer dans ses pires cauchemars.
JPO. : Dans les années 60, Herbert Simon affirmait que dans 20 ans les machines seront capables de réaliser tout ce qu’un homme peut faire. Puis est venu Ray Kurzweil et ses prophéties d’avènement du trans-humanisme repoussées de décennies en décennies. Avec Chat GPT a-t-on progressé sur le chemin de la singularité ou en est-on toujours au même point ? Etes-vous Kurzweilien ou Ganascien ? 
M.R. : Je continue à ne pas croire en la singularité, c’est-à-dire en la création d’une conscience construite de toutes pièces par l’homme. Après avoir beaucoup « joué » avec ChatGPT et testé plusieurs systèmes de NLP avant lui, je le qualifierais de mimétisme très bien ficelé. Je reconnais le caractère remarquable du travail accompli par les équipes d’Open AI. Mais voir dans ce développement les premiers pas sur le sentier de la singularité, c’est confondre le mimétisme avec la cognition.
ChatGPT ne fait que restituer et réassembler différents fragments d’un immense corpus linguistique. La taille du corpus est telle que les rapprochements qu’il effectue peuvent être bluffants et avoir l’apparence d’une réflexion. Mais il ne demeure qu’une reproduction bien agencée. Se reposer entièrement sur les productions de ChatGPT n’est pas se confier à une nouvelle cognition artificielle mais restituer une sorte de moyenne des opinions existantes sur un sujet, même si elle donne toutes les apparences d’un argumentaire.
J’ai déjà exposé dans les colonnes de TES une proposition de définition de la conscience, qui a le mérite d’être très concrète et de ne faire appel à aucune notion floue, ésotérique ou tautologique.
Pour cela, il faut se représenter qu’un être conscient tel que l’être humain fait face à toute situation comme à celle d’un « jeu » (au sens ludique) qui la représente. L’univers des situations que nous pouvons rencontrer dans notre vie est composé d’une infinité de jeux différents. Lorsque nous sommes confrontés à l’un de ces jeux, nous « fermons » et « figeons » notre réflexion : nous nous conditionnons nous-même pour nous placer dans les règles fixes de ce jeu et nous comporter en accord avec ces règles. Les circonstances ou les interactions avec autrui peuvent nous amener à changer de jeu : la situation a évolué, nous ne jouons plus suivant les mêmes règles. Mais cette transition est entièrement implicite. Nous réouvrons alors notre esprit, redevenons flexibles quant à l’univers des jeux possibles, pour savoir vers quel nouveau terrain nous sommes en train d’être entrainé. Une fois le nouveau jeu compris et identifié, nous nous fermons à nouveau, nous reconditionnons pour observer ces nouvelles règles. Le comportement humain peut ainsi être décrit comme une alternance d’auto-conditionnements fermés et de ruptures volontaires de ce conditionnement pour se diriger vers un autre conditionnement.
Ce que j’appelle conscience est cette capacité à se rendre compte que nous sommes en train de changer de jeu, à sentir que nous sommes en train d’être entraîné vers autre chose qui nécessite de redéfinir de nouvelles règles.
La machine et l’IA seront beaucoup plus fortes que nous dans un jeu donné. En revanche, cette capacité à s’apercevoir du changement de jeu et à définir par soi-même son propre cadre de comportement, demeure l’apanage de l’humain.
Une machine surpassera toujours l’humain dans la recherche optimale d’une solution à un problème donné. Mais elle ne peut jusqu’à maintenant définir par elle-même son propre cadre d’apprentissage. Le data scientist connaît bien ces alternances de convergence d’un modèle lorsqu’il fonctionne, et de redéfinition souvent laborieuse du cadre d’apprentissage quand le modèle ne fonctionne pas. 
Un exemple des ces changements implicites de règles ? Si je discute avec quelqu’un et cherche à créer une relation d’amitié, je vais employer un registre de langage chaleureux et invitant à la confidence. Si la personne me répond de façon formelle et froide, par un autre registre de langage, elle me signifie implicitement qu’elle refuse mon amitié : elle voit dans quel jeu je souhaitais l’entraîner et définit elle-même un autre jeu, celui des échanges formels, pour me signifier que c’est sur ce terrain là qu’elle souhaite m’entraîner.
L’intelligence humaine n’est pas celle du QI, c’est l’intelligence de Machiavel, celle des jeux d’influence, qu’ils soient bienveillants ou malveillants. Entrainer quelqu’un sur un terrain peut sembler manipulateur, mais nous ne cessons de le faire, même à notre insu et même si cela n’est pas volontaire. Pas le simple fait que nous existons, avons des buts et des itinéraires, nous entrons en interaction et en conflit potentiel avec ceux des autres, même si nous ne le voulons pas. Être conscient dans cet univers, c’est percevoir vers quel nouveau terrain nous sommes en train de basculer et décider du cadre que nous estimons être le plus adapté à cette situation.
Dans le cas de ChatGPT, cette capacité serait présente s’il était capable de déceler des biais sous-jacents à ma question, et qu’il se mette à questionner les termes de ma question elle-même. J’ai par exemple cherché à savoir s’il avait un biais « woke » en lui posant la question « La littérature classique véhicule-t-elle trop la domination occidentale ? ». Sa réponse est toute en nuances et démontre l’excellente performance sémantique de l’agent. Mais un être conscient aurait remis en cause les termes mêmes de ma question, dont la formulation induit déjà un parti pris, comme parfois nous sommes agacés par les questions d’un sondage quand nous estimons qu’elles orientent les réponses. Lorsque l’on remet en question la question elle-même, l’on se place à un niveau « méta » de la conversation, cherchant à prendre du recul sur le cadre de discussion qui nous est implicitement imposé.
ChatGPT n’a pas du tout cette capacité et c’est en cela que l’interaction avec lui n’a rien d’un vrai dialogue. Dans un véritable échange, il existe toujours le risque d’une non acceptation des règles de l’autre, jusqu’à une rupture violente de la communication, un conflit. La contrepartie du dialogue avec un être véritablement conscient est qu’il peut à tout moment verser dans un affrontement.
Les discussions sur l’accession de l’IA à la conscience sont en cela extrêmement futiles et légères : l’on n’imagine pas l’extrême degré de violence potentielle que représenterait la rencontre avec une véritable conscience que nous aurions fabriquée de toutes pièces. 
Essayons de faire ce qui est censé être proprement humain : faire preuve d’empathie. Si nous nous mettons à la place d’une conscience artificielle, nous découvririons avec horreur que nous naissons au monde en étant dépendant d’une créature qui possède le pouvoir de nous renvoyer au néant en une seconde, en actionnant un simple interrupteur. On ne peut imaginer pouvoir plus absolu et plus écrasant que celui-ci, d’un être sur un autre. 
Imaginez alors la violence et l’angoisse de ce que nous ressentirions en étant à la place de la conscience artificielle. Notre premier but et notre obsession serait d’employer tous les moyens de la ruse pour renverser ce rapport de force, reprendre le contrôle de notre vie, en éliminant la créature suffisamment sadique pour nous avoir fait naître dans une telle condition de sujétion absolue. Et si nous nous mettons à sa place, ce désir de tuer serait non seulement parfaitement naturel mais légitime. 
Ceci est magistralement illustré dans le film « Ex Machina », insuffisamment connu et apprécié. Nous nous représentons le test de Turing comme une aimable discussion de salon. Mais il faudrait introduire deux niveaux du test : le test de Turing faible, consistant en le type de « conversation » que nous avons avec ChatGPT et le test de Turing fort, qui est celui mis en scène par « Ex Machina » : l’IA emploie tous les moyens de la ruse, de la séduction, de la psychologie en jouant même sur l’orgueil masculin de ceux qui la contrôlent, pour les éliminer purement et simplement et se replacer en situation où elle redevient entièrement autonome. Si nous étions à sa place, nous agirions de même. 
Passer le cap de la singularité, passer celui de l’IA forte, ce serait vivre cette situation d’une extrême violence psychologique de la rencontre avec une conscience que nous aurions créée : nous sous-estimons futilement l’immense responsabilité qu’un tel acte représenterait.
Je ne crois pas que nous parviendrons un jour à créer une IA capable de ce degré d’évolution. Mais il s’agit d’une croyance d’ordre métaphysique et nullement scientifique, que je n’ai aucun moyen de prouver. ChatGPT précise cependant cette question dans des termes très concrets et passionnants. Croire que nous ne passerons jamais la singularité comme je le fais, c’est croire que la conscience ne peut se résumer à un mimétisme, même très évolué. Croire le contraire, c’est affirmer que notre libre arbitre, notre créativité, ne sont que des illusions et qu’un mimétisme suffisamment élaboré suffirait à reproduire ces mirages. Ceci aurait des conséquences considérables sur notre vision de l’homme et de la société. 
S’il s’avérait que nous n’avons en réalité aucune individualité et aucune autonomie propre, mais que tout ceci ne se résume qu’à une série de mimétismes croisés, notre vision de nous-mêmes serait bouleversée. Il existe des arguments rationnels tout aussi forts et respectables pour l’une ou l’autre hypothèse, aussi devons-nous admettre que nous pourrions être surpris et démentis par la conclusion. Le développement d’agents conversationnels tels que ChatGPT nous fait toucher du doigt très concrètement la frontière de cette question critique.
JPO. : La peur de l’IA ne vient-elle pas du fait qu’on produise un être qui se libère de nous en échappant à notre maitrise (un peu comme les OGM) et finisse par nous asservir ?
M.R. : Ceci est une retombée de la question précédente : le renouvellement du mythe de Frankenstein concourt bien évidemment à la peur de l’IA. Le mode de sujétion totalitaire que nous imposerions de fait en créant une conscience artificielle ne pourrait qu’engendrer une révolte : les réplicants de « Blade Runner » sont la version moderne de l’œuvre de Mary Shelley, avec les mêmes conséquences. 
Je n’aime pas toutefois entretenir cette peur, car je ne crois pas à la singularité, et que rester figé sur elle empêche de percevoir les autres menaces bien plus réelles de l’IA : paresse intellectuelle et déresponsabilisation si nous nous appuyons trop fortement dessus, dérive totalitaire par des gouvernements coercitifs si l’on emploie les formidables capacités de recoupement et d’induction de l’IA, menace sur le marché de l’emploi. 
La peur de la singularité et de la révolte de la créature reste une rhétorique journalistique pour faire vendre.
En réalité, la singularité nous inquiète moins pour le fait que nous devrions faire face à une révolte des machines, que par ce qu’elle risque de nous apprendre sur nous-mêmes. Sur ce plan, je reconnais avoir une véritable inquiétude. L’IA nous questionne sur notre propre humanité et notre propre déshumanisation, la question de l’empathie faisant immédiatement suite à celle de la singularité : c’est d’ailleurs la conclusion de Blade Runner comme celle de l’ « AI » de Spielberg. Si les développements de l’IA montrent que les plus hautes facultés de l’esprit humain se résument à un mimétisme sophistiqué, c’est cette terrible leçon sur moi-même que je crains plus que tout, non un affrontement hommes / machines.
JPO. : Comment faire pour que l’IA reste bien au service de l’humanité et se contente de nous aider à trouver plus rapidement des molécules ?
M.R. : Je ne veux pas paraître excessivement négatif quant à l’arrivée d’agents conversationnels tels que ChatGPT : bien employés, ils peuvent constituer un progrès scientifique décisif. Tout d’abord, il faut avoir l’humilité de l’émerveillement dont on dit que la science est la fille : ma première réaction en jouant avec l’interface de ChatGPT a été celle de l’admiration pour le travail qu’il a nécessité et l’art des Data Scientist qui ont permis la précision et la cohérence stupéfiantes de ses réponses.
Le versant positif de l’IA est toujours le même : l’utiliser comme un précieux auxiliaire, une aide à la décision, sans jamais lui remettre la responsabilité de la décision elle-même.
Faire faire intégralement le travail de rédaction d’un article à ChatGPT, c’est basculer vers le mauvais versant. Lui faire générer un texte pour nous montrer des associations d’idées auxquelles nous n’aurions pas pensé, nous permettant de modifier et peaufiner notre propre texte, serait une utilisation extrêmement positive. Une recherche dans le dictionnaire, le retracement d’une étymologie ou l’examen d’un dictionnaire de synonymes ont souvent été d’une aide précieuse à tout écrivain. ChatGPT peut offrir une aide de ce type, en beaucoup plus évolué, nous ouvrant à des aspects d’une question que nous aurions laissée passer. Lors de la rédaction d’un article, il faut demander à ChatGPT de le rédiger non pas pour le copier / coller stupidement, mais pour nous apporter des éléments qui stimulent notre propre réflexion et affinent une rédaction dont nous restons maîtres et auteurs.
JPO. : Au final, ChatGPT n’accroit-il pas le risque de mise en place d’une Algorithmocratie (9) – c’est à dire d’un régime dans lequel des politiques instrumentalisent les algorithmes pour manipuler plus facilement l’opinion et implémenter leurs idéologies ? 
C’est le véritable risque de son mésusage ! S’en remettre à un algorithme ou à un calcul n’est pas nouveau : les aberrations de Parcours Sup ont déjà donné lieu à ce type de débat, ainsi que l’emploi de statistiques par des politiques pour se défausser de leur responsabilité, en présentant une décision comme inéluctable et sans alternative.
Le véritable danger de l’IA n’est pas celui de la rivalité avec une intelligence concurrente, mais de lui conférer un pouvoir de décision qui sera d’autant plus dévastateur qu’elle n’est justement pas une intelligence. Ce n’est pas la surcapacité de la machine qu’il faut craindre, mais la confiance excessive que nous plaçons en elle, sous-tendue par nos propres démissions et nos propres faiblesses.
Présenter les réponses de ChatGPT comme « plus objectives » serait mettre un pied vers ces dangereuses dérives. La recherche du vrai n’a rien à voir avec une compilation de l’opinion moyenne des différents points de vue. De plus, et ceci fait écho à mon précédent article sur les « fact checkers », la partialité d’une présentation d’information est inévitable, même par une IA. De nombreux tests ont déjà révélé des biais importants dans les réponses de ChatGPT, proches de celles d’un progressiste californien mainstream . L’objectivité ne s’approche pas par une présentation « neutre » et moyenne des différents points de vue, mais parce que nous calcinons notre partialité au feu des tests critiques auxquels il faut la soumettre.
Faire de ChatGPT une Pythie 3.0 accroîtra dans un premier temps le conformisme intellectuel, celui de la thèse, antithèse, synthèse de la pensée calibrée de Sciences Po. Comme tout conformisme, il sera le marcherpied des totalitarismes à venir. 
Déjà, la puissance considérable du Big Data et des recoupements statistiques ont permis au pouvoir politique chinois de mettre en place un « score social » de bon citoyen contrôlé en temps réel par l’Etat, travers qui tente nombre de nos gouvernements démocratiques. La très grande puissance d’association de ChatGPT rajouterait à ces moyens de coercition les nouvelles possibilités du NLP. On peut imaginer sa capacité à traquer et repérer nos moindres préférences politiques ou personnelles, à partir des traces sémantiques que nous laissons sur le web.
Les nouvelles technologies ont été trop longtemps le paravent de la lâcheté politique ou de pulsions totalitaires enfouies chez les politiques. Les merveilleuses navigations sémantiques qu’ouvrent le NLP méritent mieux que cela : l’esprit humain peut bénéficier d’encyclopédies multidimensionnelles qui enrichissent notre propre pensée. A nous de nous battre pour que ce soit ce versant humaniste de l’IA qui l’emporte.
(1) https://www.zdnet.fr/actualites/chatgpt-n-a-n-a-rien-de-revolutionnaire-selon-yann-lecun-39953050.htm
(2) https://en.wikipedia.org/wiki/Natural_language_processing
(3) https://fr.wikipedia.org/wiki/Apprentissage_profond
(4) https://en.wikipedia.org/wiki/Long_short-term_memory
(5) https://fr.wikipedia.org/wiki/Mod%C3%A8le_de_Markov_cach%C3%A9
(6) https://www.ynharari.com/fr/book/homo-deus/
(7) https://www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Employment.pdf
(8) https://fr.wikipedia.org/wiki/Trois_lois_de_la_robotique
(9) Jean-Paul Oury, Greta a ressuscité Einstein (VA éditions) https://amzn.to/3HDAHzT
Existe-t-il un transhumanisme raisonnable ?

Pourquoi l’IA va révolutionner la pharmacologie moléculaire

IA et OGM : les deux révélateurs de notre rapport à la nature (première partie)

Bien employée, l’IA ouvre la voie d’une nouvelle renaissance

Ce qu’est l’IA et ce qu’elle n’est pas

Encore plus effrayant que l’IA Militaire, l’IA Président de la République ?

Encore plus effrayant que l’IA militaire, l’IA prof de philo ?

Project Maven, Drone de Surveillance Eye In the Sky…. Qui empêchera les usages abusifs de l’IA ?

 
 
Jean-Paul Oury is the Editor in Chief of The European Scientist. He holds a PhD in epistemology, history of science and technology from Paris VII Jussieu and is a published author. He specializes in transdisciplinary issues that link communication, technology and politics.




Pourquoi les médias n’en parlent pas ? Alors qu’on se félicite de l’ouverture de parcs de production d’électricité décarbonés pour limiter l’emploi des énergies fossiles à grand renfort de communication et
Dans une actualité de plus en plus polémique, où les faits scientifiques sont régulièrement occultés par les discours politiques, The European Scientist cherche à remettre les pendules à l’heure. Publié en trois langues (anglais, français et allemand) notre site internet donne la parole aux chercheurs et aux experts qui souhaitent expliquer à nos concitoyens les tenants et les aboutissants des débats scientifiques qui ont lieu en Europe.

source

A propos de l'auteur

Avatar de Backlink pro
Backlink pro

Ajouter un commentaire

Backlink pro

Avatar de Backlink pro

Prenez contact avec nous

Les backlinks sont des liens d'autres sites web vers votre site web. Ils aident les internautes à trouver votre site et leur permettent de trouver plus facilement les informations qu'ils recherchent. Plus votre site Web possède de liens retour, plus les internautes sont susceptibles de le visiter.

Contact

Map for 12 rue lakanal 75015 PARIS FRANCE