Passer aux informations sur le produit
IA morale
€34,00
IA morale
Description
Introduction au livre
Philosophe, neuroscientifique et informaticien de renommée mondiale
Une introduction unique et équilibrée à l'éthique de l'IA, écrite à quatre mains.

« Malgré des siècles d’efforts, les humains n’ont pas trouvé le moyen d’empêcher les erreurs morales. »
Peut-être qu’une IA morale idéale pourrait éviter cette erreur. « L’IA morale » est un livre coécrit par trois philosophes, neuroscientifiques et informaticiens de renommée mondiale dans le domaine de l’éthique de l’IA.
Ce livre établit un juste équilibre entre l'optimisme excessif et la crainte concernant l'intelligence artificielle, et constitue un guide de pointe pour ceux qui se soucient du développement et de l'utilisation éthiques de l'IA.
Cet ouvrage, qui couvre les dernières recherches sur les technologies d'IA en constante évolution, notamment les deepfakes, les voitures autonomes, les armes autonomes et les robots médicaux, présente de nouvelles questions éthiques liées à l'IA, telles que les biais algorithmiques, les violations de la vie privée et la responsabilité en cas d'accidents, à travers des études de cas convaincantes.
En particulier, en proposant l'idée unique de développer une intelligence artificielle dotée d'une « moralité » humaine, elle élargit le champ du discours sur « l'éthique de l'IA », qui s'est concentré sur la sécurité de la vie et du corps humains et la protection des droits fondamentaux, au développement et à l'utilisation d'outils technologiques qui préviennent les erreurs morales humaines.


La position des auteurs sur l'utilisation de la technologie de l'IA est claire.
Il est difficile de « jeter le bébé IA avec l’eau du bain ».
L'idée est qu'il pourrait être « immoral » d'arrêter le développement d'une IA qui a déjà prouvé ses bienfaits.
Il soutient que le moment n'est pas venu de débattre de l'opportunité d'utiliser ou non la technologie de l'IA, mais plutôt d'examiner de près les avantages et les risques potentiels qu'elle engendrera, et de mettre en commun notre sagesse pour aborder les valeurs morales (sécurité, équité, vie privée, transparence, liberté et tromperie) intimement liées à cette technologie.

Composé de sept chapitres, cet ouvrage examine dans sa première partie le concept et les principes de fonctionnement de l'intelligence artificielle, ses applications concrètes et les enjeux éthiques qu'elle soulève. La seconde partie présente la mise en œuvre d'une « IA morale » et propose des mesures pratiques pour rendre les produits d'IA éthiques. Ce livre constituera un guide précieux pour les lecteurs intéressés par les tendances émergentes et les débats éthiques liés à l'IA, les professionnels de l'informatique confrontés à l'application de l'éthique de l'IA au développement de produits, ainsi que les citoyens qui réfléchissent à la manière d'utiliser l'IA comme outil pour bâtir une société plus juste et démocratique.
  • Vous pouvez consulter un aperçu du contenu du livre.
    Aperçu

indice
Entrée

Introduction | Quel est le problème ?

Chapitre 1 Qu'est-ce que l'intelligence artificielle ?

IA spécialisée, IA générale, IA forte ─ Choisissez un défi │ Vocabulaire à connaître pour préparer un jeu télévisé : GOFAI │ Apprendre aux machines │ Qu’en est-il de l’apprentissage profond et des réseaux neuronaux ? │ Quelle IA est intelligente ? │ Quelles sont les limites actuelles de l’IA ? │ Il devient de plus en plus difficile de déterminer les limites de l’IA │ Qui développe l’IA aujourd’hui ?

Chapitre 2 : L’intelligence artificielle peut-elle être sûre ?

La vie avec l'IA : un cauchemar digne de la science-fiction ? │ Problèmes de sécurité liés à l'IA aujourd'hui │ Quelques études de cas │ L'imprévisibilité prévisible

Chapitre 3 : L’IA peut-elle respecter la vie privée ?

Qu’est-ce que la vie privée ? Pourquoi devrions-nous nous en soucier ? Comment l’IA porte-t-elle atteinte à la vie privée ? L’écosystème de l’IA encourage l’accumulation et la vente de données personnelles. Comment protéger notre vie privée des menaces que représente l’IA ? Accordons-nous de l’importance à notre vie privée ?

Chapitre 4 : L’intelligence artificielle peut-elle être juste ? … 157

Qu’est-ce que la justice ? Qui est emprisonné avant son procès ? Juges humains contre IA : qui est le plus précis ? Rendre l’équité explicite. Juges humains contre IA : qui est le plus partial ? Qu’en est-il de la justice procédurale ? L’interprétabilité résoudra-t-elle le problème ? IA équitable

Chapitre 5 : Peut-on tenir l’intelligence artificielle (ou ses créateurs et utilisateurs) responsables ?

Qu’est-ce que la responsabilité ? │ Le conducteur humain est-il responsable ? │ Le piéton est-il responsable ? │ L’IA impliquée est-elle responsable ? │ Uber est-il responsable ? │ Le gouvernement de l’État d’Arizona est-il responsable ? │ L’IA est-elle responsable ? │ Le déficit de responsabilité

Chapitre 6 : L’intelligence artificielle peut-elle être dotée d’une moralité humaine ?

Moralité descendante ? Moralité ascendante ? Le meilleur des deux mondes. Qui recevra un rein ? Comment intégrer la moralité à l’IA de distribution des reins ? Démocratie artificiellement améliorée.

Chapitre 7 Que pouvons-nous faire ?

La complexité de la création d'IA │Pourquoi existe-t-il un écart entre les principes et la pratique en matière d'IA éthique ? │Que peut-on faire pour combler cet écart ? │Premier appel à l'action │Deuxième appel à l'action │Troisième appel à l'action │Quatrième appel à l'action │Cinquième appel à l'action │Vue d'ensemble

Conclusion | C'est à nous de décider

principal
Recherche

Image détaillée
Image détaillée 1

Dans le livre
À quel moment un code informatique écrit devient-il une IA, et non plus un simple programme ? L'IA est-elle véritablement intelligente ? Peut-elle être consciente ? Peut-elle être originale et créative ? Ou se contente-t-elle d'obéir aveuglément aux ordres de son créateur ?
--- p.22

Malgré son succès monumental, Deep Blue a été mis au placard et exposé au Computer History Museum aux États-Unis peu après sa victoire sur Kasparov.
Pourquoi en serait-il ainsi ? Parce que ses créateurs savaient que Deep Blue ne savait rien faire d'autre que jouer aux échecs.
Voici la définition d'un système d'IA étroit.
--- p.33

Imaginez quelqu'un qui trompe un système d'IA pour qu'il diagnostique à tort un grave problème médical chez un homme politique.
De ce fait, sa future carrière politique sera compromise et il devra subir un traitement inutile.
--- p.64~65

Une équipe de chercheurs en sécurité a réussi à tromper une Tesla Model S et à la faire s'engager sur la voie opposée d'une voiture virtuelle, simplement en plaçant trois autocollants sur la route.
Le système de vision par intelligence artificielle de la voiture a mal interprété l'autocollant, pensant que la voie tournait à gauche, mais n'a pas détecté que la voie mal interprétée se dirigeait en fait vers la voie réelle.
--- p.96

Un expert en armes autonomes a déclaré :
Il n'est pas difficile d'imaginer un monde où des algorithmes, réagissant plus vite que les humains et s'opposant les uns aux autres, surveillent la situation.
…si la guerre venait à progresser à un rythme que nous, humains, ne pourrions plus contrôler, ce serait véritablement horrible. Il serait inquiétant qu’une « bataille d’IA contre IA » incontrôlée éclate entre des drones ou des chars autonomes existants.
--- p.104~105

Pour citer Stephen Hawking : « Notre avenir sera une course entre la puissance toujours croissante de la technologie et la sagesse nécessaire pour l’utiliser. »
--- p.117

Nous avons droit à la vie privée dans la mesure où nous contrôlons si d'autres peuvent nous observer, interférer avec nous, obtenir des informations spécifiques nous concernant ou déterminer qui nous sommes.
En revanche, le manque de confidentialité signifie que vous n'avez aucun contrôle sur les informations concernant ces aspects de votre vie.
--- p.123

Les deepfakes (bots, vidéos, enregistrements et photos conçus pour imiter les humains) pourraient être trompés et leur faire croire qu'ils sont de véritables employés de banque ou du fisc, et ainsi partager vos informations bancaires ou votre numéro de sécurité sociale.
Ces actes frauduleux sont appelés attaques de « phishing ».
--- p.132

Microsoft et Amazon ont également averti leurs employés de ne pas partager d'informations sensibles avec ChatGPT.
Car ces informations pourraient un jour être incluses dans le résultat.
--- p.136

Comme l’indiquait le titre de l’article de The Economist : « La ressource la plus précieuse au monde n’est plus le pétrole, mais les données. »
--- p.138

La plupart des politiques de confidentialité prennent environ 8 à 12 minutes à lire et sont rédigées dans un langage que même les experts ont du mal à comprendre.
Il n'est donc pas surprenant que la plupart des gens passent leur chemin sans le lire.
--- p.145

Le consentement ne protégera jamais la vie privée si vous ne comprenez pas réellement ce que signifie votre choix ou si vous êtes manipulé pour accepter les termes et conditions.
--- p.147

Grâce à l'IA, même des données de géolocalisation anonymisées peuvent être facilement réidentifiées. Des experts en IA ont démontré que, dans un vaste ensemble de données contenant des relevés GPS horaires, il est possible d'identifier une personne à partir de seulement quatre points spatio-temporels GPS.
Il peut également identifier 95 % des individus.
--- p.151

Il existe une raison fondamentale pour laquelle l'apprentissage automatique présente souvent des biais.
L'une des raisons est qu'il est très difficile (et souvent coûteux) de collecter des ensembles de données qui représentent de manière égale tous les groupes démographiques et les intérêts, et que l'IA entraînée fait des prédictions plus précises sur les groupes bien représentés dans les données que sur les groupes qui ne le sont pas.
--- p.160

Le juge du procès dans l'affaire Loomis devait être capable de porter un jugement éclairé sur le moment (et la mesure) où il convenait de se fier aux prédictions de Compass pour justifier sa conclusion selon laquelle Loomis présentait un « risque de récidive extrêmement élevé ».
Sans ces informations, les juges risquent d'accepter ou de rejeter aveuglément les prédictions de l'algorithme, même lorsqu'ils ne leur font pas confiance.
--- p.184~185

Imaginons qu'un hôpital utilise l'IA pour détecter le cancer, mais que cette IA commette une erreur de diagnostic, ce qui entraîne un traitement inutile ou trop tardif pour le patient.
Alors, qui est responsable de ce mauvais diagnostic ? Si quelqu’un doit être tenu responsable des dommages, qui ? Et que se passera-t-il si l’armée utilise l’IA pour guider les missiles et les drones, mais que ces armes pilotées par l’IA tuent des familles innocentes au lieu des terroristes ciblés ?
--- p.221

Malgré des siècles d'efforts, l'humanité n'a pas trouvé le moyen d'empêcher les erreurs morales.
Une IA morale idéale pourrait peut-être éviter les erreurs.
De plus, si nous apprenons à corriger les biais et les erreurs dans les données d'entraînement et les modèles d'IA morale, ses prédictions et ses actions seront mieux alignées sur nos propres valeurs morales fondamentales.
--- p.247~248

La suite des événements dépendra autant de la capacité de décision morale et de l'intelligence morale humaines que de la capacité de décision artificielle et de l'intelligence artificielle.
Nous devons clarifier notre rôle lorsque nous réfléchissons à l'IA.
En résumé, dans cette histoire d'IA morale, le réalisateur et le personnage principal sont tous deux humains. L'IA est simplement un être qui nous accompagne.
Du moins pour l'instant.
--- p.318

Avis de l'éditeur
Pourquoi une « IA morale » ?

Le titre, « IA morale », suscite la curiosité.
Les amateurs de science-fiction espèrent peut-être que ce livre prédira l'émergence d'un nouveau type d'intelligence artificielle dotée de moralité, d'autonomie et de libre arbitre.
Cependant, l’« intelligence artificielle morale » proposée dans ce livre n’est pas une intelligence artificielle d’un futur aussi lointain.
De manière générale, il s'agit d'une « IA qui apprend et met en œuvre les valeurs humaines », et de manière plus spécifique, d'un « système qui assiste le jugement moral humain ».
Un exemple de recherche représentatif illustrant cette possibilité est celui de « l'IA qui détermine la priorité des patients pour les transplantations rénales ».


Dans les hôpitaux, les priorités de transplantation sont généralement déterminées par 1) le jugement médical du chirurgien transplanteur et 2) les jugements médicaux et pratiques du personnel hospitalier (aptitude, âge, santé, qualité de l'organe, période d'attente, etc.) qui déterminent la politique de transplantation rénale (les jugements moraux sont exclus).
« Moral AI » apprend de deux manières : premièrement, en programmant les décisions médicales qu’un chirurgien spécialisé dans les transplantations prendrait s’il était dans des conditions physiques et mentales idéales, et deuxièmement, en modélisant les décisions du groupe qui décide de la politique de transplantation de l’hôpital.
Dans ce dernier cas notamment, en impliquant non seulement le personnel hospitalier mais aussi divers citoyens, y compris des avocats, des patients et des non-experts, un jugement moral commun peut être intégré dans un système automatisé.
Cet outil technologique peut contribuer à prévenir les erreurs et les biais des chirurgiens, et à garantir que les priorités d'attribution des reins soient conformes aux valeurs morales de la population.
Ce livre présente les idées de recherche actuelles sur la manière d'extraire les caractéristiques morales, de mesurer leur poids, de modéliser les jugements moraux, de synthétiser les jugements de groupe et d'idéaliser les jugements moraux pour mettre en œuvre cette technologie dans les systèmes (voir pages 239-253).

Une IA dotée d'une moralité humaine

Cela peut encore paraître de mauvais goût aux lecteurs qui s'attendaient à « l'émergence d'une IA dotée de moralité », mais le potentiel de cette technologie est énorme.
Il y a deux points clés.
Premièrement, cela peut aider les gens à porter des jugements moraux.
Les êtres humains imparfaits peuvent commettre des erreurs morales à tout moment.
Car nous ne pouvons échapper aux « biais qui influencent inconsciemment la prise de décision, tels que les biais cognitifs, le favoritisme et les préjugés raciaux ou sexistes ».
Une « IA morale idéale » qui éliminerait de tels biais pourrait nous aider à formuler des « jugements moraux plus éclairés, rationnels et impartiaux », même lorsque nous sommes imparfaits (par exemple, à moitié endormis ou en colère).
Deuxièmement, elle peut contribuer à réduire les injustices sociales et à prévenir les décisions contraires à l'éthique. Étendre cette technologie, qui intègre la moralité à l'IA, à d'autres domaines pourrait mener au développement de systèmes de « démocratie artificiellement améliorée (IAA) » qui automatisent les jugements moraux des membres de la communauté (voir pages 254-256).


En particulier, si l'AID est intégrée aux outils d'aide à la décision, elle peut être utilisée dans un large éventail de domaines, et pas seulement dans le domaine médical.
Par exemple, on pourrait aider les agents humains à faire les bons choix lorsque les recruteurs interviewent des candidats ou prennent des décisions d'embauche, lorsque les opérateurs militaires déterminent quand et où lancer des missiles, et dans d'autres domaines où l'équité et la moralité peuvent être en jeu.
Parallèlement, les auteurs proposent diverses mesures pratiques (« stratégies d’IA morale ») qui peuvent aider les développeurs d’IA à renforcer l’intervention éthique dès les premières étapes du développement de produits d’IA, tout en diffusant simultanément la technologie de l’« IA morale » dans divers domaines.
Les domaines clés sont « la diffusion des technologies, les pratiques organisationnelles, l’éducation, l’engagement civique et les politiques publiques », et les développeurs peuvent les utiliser comme lignes directrices concrètes pour leur stratégie d’« IA éthique », telles que l’amélioration de la culture organisationnelle, le renforcement du rôle des responsables de l’éthique, l’établissement d’indicateurs éthiques et la prise en compte des valeurs de la communauté dans les produits d’IA.

Technologie de l'IA et nouveaux enjeux éthiques

Les auteurs présentent également un large éventail de nouvelles questions éthiques liées à la technologie de l'intelligence artificielle que nous devons prendre en compte aujourd'hui.
Voici quelques exemples clés tirés des cas présentés dans ce livre.
Tout d’abord, la question de la responsabilité (ou « lacune en matière de responsabilité »). Qui devrait être tenu responsable des accidents de sécurité causés par l’IA ? En 2018, une Volvo XC90 autonome appartenant à Uber a percuté un piéton (Hertzberg) lors d’un essai.
Les capteurs du véhicule et le système de reconnaissance par intelligence artificielle n'ont pas détecté le piéton, et le conducteur d'essai, assis au volant, regardait également ailleurs.
Qui est responsable de la mort d'Hertzberg ? Le pilote d'essai ? Le constructeur automobile ? Les ingénieurs d'Uber qui ont créé l'IA ? Ou bien personne ne peut être tenu responsable car personne n'avait anticipé les conséquences de l'IA ?

Le problème du « déficit de responsabilité » peut survenir dans divers domaines où l'IA est utilisée.
Du fait du grand nombre de personnes impliquées, la gravité des responsabilités juridiques et morales reste floue.
Par exemple, si une IA commet une erreur de diagnostic dans un hôpital, entraînant un traitement inutile ou retardé pour un patient, qui en sera tenu responsable ? Si l’armée utilise l’IA pour provoquer une frappe de drone, causant des victimes civiles, qui en sera tenu responsable ? Prenons un exemple plus inquiétant : si une start-up développe un chatbot de consultation médicale basé sur le modèle GPT d’OpenAI et que ce chatbot donne des conseils dangereux entraînant la mort d’une personne, qui en sera tenu responsable ? La start-up ou OpenAI, qui a fourni la technologie du modèle GPT ? Les auteurs craignent que si notre société ne parvient pas à résoudre ces problèmes de responsabilité, des troubles sociaux soient inévitables.

Deuxièmement, la question de l'atteinte à la vie privée.
Les informations personnelles peuvent facilement fuiter et être utilisées à des fins criminelles.
Par exemple, la combinaison de l'IA de reconnaissance faciale et de la technologie de suivi de localisation pourrait permettre à une personne de révéler des informations médicales sensibles simplement en la voyant dans la rue, et pourrait rendre les gens vulnérables aux attaques de phishing utilisant la technologie deepfake de l'IA (imaginez des chatbots, des vidéos, des enregistrements et des photos se faisant passer pour de véritables employés de banque ou du fisc).
Mais il existe une autre menace pour la vie privée sur laquelle les auteurs se concentrent réellement dans ce livre.
Il s'agit d'un écosystème d'IA qui repose sur la « collecte du maximum de données personnelles possible, leur stockage permanent et leur vente au plus offrant ».
De nombreuses entreprises spécialisées en IA investissent aujourd'hui massivement dans la collecte de données personnelles, car « plus les données d'entraînement sont diversifiées et étendues, plus l'IA devient précise et plus elle peut faire de prédictions ».


La méthode de collecte est également ingénieuse.
Dans le cas de PayPal, une société de paiement en ligne aux États-Unis, « si un utilisateur accepte d'intégrer PayPal à un site web, son historique d'achats, ses préférences personnelles, ses photos et son statut d'invalidité seront partagés avec ce site web (ne vous laissez pas berner par la phrase « Nous ne vendons pas vos données personnelles » dans la politique de confidentialité, vous aurez de gros problèmes).
Car cette phrase ne signifie pas « nous ne partageons pas de données avec d’autres entreprises ».
Les données personnelles ainsi collectées servent à entraîner divers modèles d'IA (tels que la reconnaissance faciale, la complétion de texte ou les systèmes de chatbot), et même les modèles d'IA entraînés peuvent être loués ou vendus à d'autres entreprises.
Par ailleurs, du fait de la nature des modèles d'IA qui ont tendance à « se souvenir » de certaines informations issues des données d'entraînement (« phénomène d'« incapacité à oublier »), il n'est pas impossible que des informations personnelles soient divulguées.
« Microsoft et Amazon ont également averti leurs employés de ne pas partager d'informations sensibles avec ChatGPT. »
Parce que ces informations pourraient un jour être incluses dans le résultat.

Troisièmement, la question des biais dans les données. Les biais dans les données constituent depuis longtemps une préoccupation dans le domaine de l'éthique de l'IA.
« Chaque fois que nous décidons quelles données collecter, quelles informations intégrer à un algorithme d'IA et comment réagir à ses prédictions, nous introduisons un biais humain dans l'IA. »
Les modèles d'IA entraînés sur des données biaisées produiront inévitablement des résultats biaisés (« biais en entrée, biais en sortie »), et une étude a révélé que « l'IA couramment utilisée pour l'embauche, le licenciement, les promotions, les prêts immobiliers et les prêts aux entreprises désavantage souvent les candidats, en particulier les personnes noires, les femmes, les immigrants, les personnes vivant dans la pauvreté et les personnes handicapées, et l'IA de détection du cancer de la peau ne fonctionne pas aussi bien sur les personnes à la peau foncée (personnes de couleur) ».

Quatrièmement, la question de la transparence dans le processus de traitement algorithmique.
Il s'agit d'un problème reconnu comme étant plutôt épineux, notamment dans le domaine de l'IA d'apprentissage profond.
L'intelligence artificielle d'apprentissage profond est reconnue pour ses capacités prédictives supérieures à celles des autres technologies d'IA, mais le problème réside dans le fait que le processus de traitement de l'algorithme est comme une boîte noire, ce qui le rend impossible à interpréter ou à comprendre.
La controverse entourant la décision « Loomis contre Wisconsin » en est un parfait exemple.
Eric Loomis, accusé d'implication dans la fusillade, a été condamné à une lourde peine après avoir été considéré comme une « menace pour la communauté » sur la base des prédictions de Compass (un outil d'évaluation des risques utilisé par les tribunaux de condamnation américains).
Loomis a fait appel, arguant que le modèle prédictif de Compass était « tellement exclusif et complexe qu'il n'y avait aucun moyen réaliste de savoir comment ou pourquoi il était parvenu à ses prédictions de risques, ni de réagir », mais a finalement perdu.
Mais comme le soulignent les auteurs, « si l’IA qui génère les prédictions est incompréhensible pour quiconque n’est pas expert en IA, voire impossible à comprendre pour les experts… alors le processus juridique finira par perdre toute équité. »
Les auteurs craignent que l'opacité de l'IA ne soulève des questions d'équité dans de nombreux domaines où cette technologie sera utilisée à l'avenir.


La compétition entre le pouvoir de la technologie et la sagesse

Geoffrey Hinton, lauréat du prix Nobel de physique 2024, avait averti que « l'IA pourrait conduire à l'extinction de l'humanité d'ici 30 ans », mais à mesure que la valeur économique de l'IA se confirme, un tout autre climat se dégage.
Certains pourraient affirmer que les questions éthiques sont absurdes à l'heure où le monde entier risque sa vie pour développer de nouveaux produits d'IA.
Certaines entreprises peuvent penser que le lancement d'un nouveau produit, suivi de la résolution des problèmes au fur et à mesure qu'ils surviennent (la méthode « Lean-Agile »), est une pratique courante dans les entreprises informatiques et qu'elle a fait ses preuves.


C’est ce contre quoi ce livre nous met en garde.
« Si les entreprises ne se sentent pas responsables des dommages causés par l’IA, elles subiront une pression croissante pour développer des produits d’IA potentiellement dangereux, mais néanmoins rentables. » Compte tenu du pouvoir destructeur de l’IA, l’ampleur des dégâts dépassera le cadre de l’entreprise individuelle.
C’est pourquoi de nombreux gouvernements et institutions s’efforcent aujourd’hui de prédire la sécurité et les risques potentiels de l’IA, d’établir des principes d’« éthique de l’IA » et de mener des recherches et des efforts institutionnels pour prévenir la perte de contrôle humain sur les machines à long terme (en Corée, l’Institut de recherche sur la sécurité de l’IA sera créé d’ici la fin de 2024 et la loi fondamentale sur l’IA sera adoptée en séance plénière).


Peut-être devrions-nous nous efforcer de doter l'IA non pas d'une technologie de pointe plus puissante, mais plutôt d'une « moralité » humaine qui préservera l'avenir de l'humanité.
Stephen Hawking affirme : « Notre avenir sera une course entre la puissance toujours croissante de la technologie et la sagesse avec laquelle nous l'utilisons. »
Le développement d'une « IA morale » qui apprend et incarne les valeurs humaines pourrait être la clé de cette sagesse.
Comme le soulignent les auteurs, pour l'instant, « le réalisateur et l'acteur principal de l'histoire de l'IA morale sont des humains ». Cependant, si la première partie de cette histoire s'achève sans prendre en compte les valeurs que nous souhaitons inculquer à l'intelligence artificielle, la place de l'humanité dans la seconde partie, écrite par une IA omniprésente, pourrait être gravement menacée.
SPÉCIFICATIONS DES PRODUITS
- Date d'émission : 20 janvier 2025
- Nombre de pages, poids, format : 360 pages | 143 × 210 mm
- ISBN13 : 9791194330639

Vous aimerez peut-être aussi

카테고리