Passer aux informations sur le produit
Atlas de l'IA
Atlas de l'IA
Description
Introduction au livre
La topographie de l'intelligence artificielle en un coup d'œil, comme une carte
Nous examinons les questions de richesse, de pouvoir et de justice liées à l'IA et recherchons des alternatives.


Que se passe-t-il lorsque l'IA s'intègre profondément à la politique et à l'économie, épuisant les ressources de la planète ? Comment l'IA influence-t-elle notre compréhension de nous-mêmes et de la société ? Kate Crawford, chercheuse de premier plan sur les implications sociales de l'IA, estime, après plus d'une décennie de recherche, que l'IA est une technologie d'extraction.
Les systèmes d'IA modernes dépendent de l'accès aux ressources énergétiques et minérales de la Terre, à une main-d'œuvre bon marché et à des quantités massives de données.
Ce livre est un voyage qui explore comment l'IA est réellement construite, des mines de lithium du Nevada aux entrepôts d'Amazon, en passant par les abattoirs de Chicago, les centres de données, les bases de données d'images, les villages de montagne de Papouasie-Nouvelle-Guinée, les archives de Snowden et les bases de fusées de l'ouest du Texas.
Cet ouvrage révèle comment ces réseaux mondiaux amplifient les dérives démocratiques et les inégalités, offrant une perspective matérielle et politique sur les enjeux de la création d'IA et la centralisation du pouvoir qu'elle engendre. S'appuyant sur un large éventail de sources et d'avis d'experts, il illustre de manière convaincante les enjeux liés à l'utilisation de l'IA par les entreprises technologiques pour remodeler le monde.
  • Vous pouvez consulter un aperçu du contenu du livre.
    Aperçu

indice
introduction
Le cheval le plus intelligent du monde | Qu'est-ce que l'IA ? | Pourquoi l'IA doit être perçue comme une carte | La topographie du calcul | Extraction, pouvoir et politique

1er district
Exploitation minière pour l'IA│Le paysage du calcul│Couches minéralogiques│Lacs noirs et latex blanc│L'illusion des technologies propres│Les couches de la logistique│L'IA comme machine géante
2 Travail
L'histoire passée de l'IA au travail│L'IA Potemkin et Mechanical Turk│Concepts de déconstruction et d'automatisation du travail : Babbage, Ford et Taylor│L'abattoir de Chicago│Gestion du temps, privatisation du temps│Le temps privé comme stratégie de pouvoir│Le rythme impitoyable de la vitesse
3 données
Apprendre aux machines à voir│Brève histoire de la demande de données│Capture des visages│D'Internet à ImageNet│Consentement non requis│Mythes et métaphores des données│Qui se soucie de la destination de la fusée ?│S'approprier les biens communs pour devenir milliardaire
4 catégories
Systèmes d'argumentation circulaire │ Limites des systèmes de débiaisement │ Différentes définitions du biais │ Ensembles d'entraînement comme moteurs de classification : le cas d'ImageNet │ Le pouvoir dans la définition des « personnes » │ Construction de la race et du genre │ Limites de la mesure
5 émotions
Le Prophète des Émotions : Quand les émotions deviennent de l'argent│Le physiognomoniste le plus célèbre au monde│Les Émotions : De la physionomie à la photographie│Capturer les émotions : L'art de jouer les émotions│Les expressions faciales expriment-elles vraiment des émotions ?│La politique du visage
6 pays
La troisième stratégie de compensation | Le plan Maven | L'externalisation de l'État | Des scores de crédit des terroristes aux scores de crédit social | Le transnational, la nation et mon quotidien
Conclusion - Puissance
Un jeu sans limites│Le pipeline de l'IA│La carte n'est pas le territoire│Vers la solidarité pour la justice
De plus - espace

· Remerciements
Note du traducteur
· principal
· Références
· Recherche

Image détaillée
Image détaillée 1

Dans le livre
Les centres de données figurent parmi les plus grands consommateurs d'électricité au monde.
L'alimentation de cette machine multicouche nécessite de l'électricité provenant de sources telles que le charbon, le gaz, le nucléaire et les énergies renouvelables.
Certaines entreprises adoptent de plus en plus une approche proactive en matière de consommation d'énergie liée au calcul à grande échelle : Apple et Google se sont déclarées neutres en carbone (ce qui signifie qu'elles compensent leurs émissions en achetant des crédits carbone), et Microsoft s'est engagée à devenir négative en carbone d'ici 2030.
Mais au lieu de s'offrir des petits plaisirs pour apaiser leur culpabilité environnementale, les employés de l'entreprise ont exigé que celle-ci réduise ses émissions globales.
De plus, Microsoft, Google et Amazon offrent tous aux entreprises de combustibles fossiles l'accès à leurs plateformes d'IA, à leurs ingénieurs et à leurs infrastructures pour les aider à extraire du carburant du sol, favorisant ainsi les industries les plus responsables du changement climatique d'origine humaine.

---Depuis "Terre 1"

Désormais, les employeurs peuvent surveiller leurs employés sans avoir à visiter physiquement l'usine.
Les travailleurs enregistrent leurs heures de travail en passant leur badge ou en plaçant leurs empreintes digitales sur un lecteur fixé à leur montre électronique.
Le minuteur devant eux affiche le temps en minutes ou en secondes dans lequel la tâche en cours doit être terminée.
Des capteurs placés sur le corps des travailleurs enregistrent en permanence des informations telles que leur température corporelle, la distance physique qu'ils respectent par rapport à leurs collègues et le temps qu'ils passent à naviguer sur Internet au lieu d'effectuer leurs tâches.
WeWork, le géant des espaces de coworking qui a connu des difficultés en 2019, a secrètement installé des équipements de surveillance dans ses espaces de travail tout en cherchant de nouvelles façons de tirer profit des données.
Lors de l'acquisition de la start-up d'analyse spatiale Euclid en 2019, des inquiétudes ont émergé quant à son intention de suivre les déplacements de ses membres payants dans ses installations.
Domino's Pizza a installé des systèmes de vision industrielle dans ses cuisines pour inspecter les produits finis et s'assurer que les employés préparent les pizzas conformément aux normes spécifiées.
L'objectif de l'installation d'équipements de surveillance est d'alimenter les systèmes de planification algorithmique en informations, de déceler les signaux comportementaux susceptibles d'être corrélés à des performances élevées ou faibles, ou de vendre ces informations à des courtiers en données.

---Extrait de « 2 Labor »

Fondamentalement, la pratique de longue date de l'accumulation de données a favorisé une logique d'extraction puissante qui est désormais une caractéristique essentielle du fonctionnement du domaine de l'IA.
Cette logique a enrichi les entreprises technologiques dotées des plus grands pipelines de données, tandis que l'espace exempt de collecte de données s'est considérablement réduit.
Comme l'avait prédit Vannevar Bush, les machines ont un appétit vorace.
Cependant, la nature et la manière dont une machine est alimentée influencent profondément sa compréhension du monde, et les priorités de ses propriétaires déterminent systématiquement la manière dont les profits sont générés. L'analyse des différentes couches de données d'entraînement qui façonnent et alimentent les modèles et algorithmes d'IA révèle que la collecte et l'étiquetage de données sur le monde, bien que présentés comme un acte purement technique, constituent en réalité une intervention sociale et politique.

---De « 3 Data »

Les systèmes de détection automatique des émotions sont désormais largement utilisés et particulièrement actifs dans le domaine du recrutement.
Une start-up londonienne appelée Human utilise la reconnaissance des émotions pour analyser les entretiens vidéo des candidats à l'embauche.
Selon un article du Financial Times, « l'entreprise affirme pouvoir identifier les traits de personnalité en capturant les expressions émotionnelles des candidats à un emploi. »
Ce n'est qu'ensuite qu'ils évaluent des traits de personnalité comme l'honnêteté et l'éthique professionnelle.
HireVue, une société de recrutement basée sur l'IA dont les clients incluent Goldman Sachs, Intel et Unilever, utilise l'apprentissage automatique pour évaluer les expressions faciales afin d'estimer l'adéquation des personnes à un poste.
En 2014, la société a lancé un système d'IA qui extrait des variables telles que les micro-expressions et le ton de la voix à partir d'entretiens d'embauche vidéo, afin de comparer les candidats aux employés les plus performants de l'entreprise.

---Extrait de « 5 Émotions »

Alors que les contrats gouvernementaux pour les systèmes d'IA augmentent considérablement, la question de savoir si les entreprises privées de technologies d'IA devraient être tenues juridiquement responsables lorsque des dommages surviennent lors de l'utilisation de ces systèmes par le gouvernement a reçu peu d'attention.
Alors que les gouvernements dépendent de plus en plus des entreprises sous-traitantes pour fournir les architectures algorithmiques qui sous-tendent leurs processus décisionnels (que ce soit en matière de sécurité ou de protection sociale), les entreprises technologiques comme Palantir sont tenues responsables de fautes présumées, notamment de discrimination.
La plupart des pays refusent actuellement d'assumer toute responsabilité quant aux problèmes causés par les systèmes d'IA acquis, arguant qu'« on ne peut être responsable de ce que l'on ne comprend pas ».
Cela signifie que les systèmes algorithmiques commerciaux interfèrent avec les processus décisionnels des gouvernements sans mécanismes de responsabilisation significatifs.
J'ai argumenté avec le juriste Jason Schultz que les développeurs de systèmes d'IA qui influencent directement les décisions gouvernementales devraient être des employés du gouvernement et, dans certains contextes, être soumis à la responsabilité constitutionnelle.
Ce n'est qu'alors qu'ils pourront, au même titre que l'État, être tenus légalement responsables du préjudice causé.
D’ici là, les fournisseurs et les entrepreneurs n’auront guère d’incitation à veiller à ce que leurs systèmes n’aggravent pas les préjudices passés ou n’en créent pas de nouveaux.
---Parmi les « 6 pays »

Avis de l'éditeur
Comment l'IA change-t-elle le monde dans lequel nous vivons ?
« L’intelligence artificielle n’est ni artificielle ni intelligente ! »


Comment les gens comprennent-ils et acceptent-ils aujourd'hui l'« intelligence artificielle » (IA) ? La considèrent-ils comme le summum de la science et de la technologie modernes, ou comme une entité merveilleuse capable de résoudre instantanément des problèmes auparavant insolubles pour les humains ? Or, cet ouvrage soutient qu'il ne s'agit là que d'une illusion née d'une confiance aveugle.
Kate Crawford, cofondatrice de l'AI Now Institute de l'Université de New York et chercheuse de longue date sur les implications sociales de l'intelligence artificielle, examine de près dans cet ouvrage le processus de création de l'intelligence artificielle et explore les pièges qu'il engendre.
Beaucoup de gens croient encore que des systèmes semblables à l'esprit humain peuvent être créés de toutes pièces et que l'intelligence artificielle existe naturellement et indépendamment, mais il s'agit là d'une perception excessivement simpliste et étriquée.

L'ouvrage soutient que l'IA n'est ni « artificielle » ni « intelligente ».
L’IA est plutôt une intelligence incarnée et matérielle, créée à partir de ressources naturelles, d’énergie, de travail humain, d’infrastructures, de logistique, d’histoire et de classification. Les systèmes d’IA ne sont ni autonomes ni rationnels, et ne peuvent rien discerner sans un apprentissage intensif et approfondi utilisant de vastes ensembles de données ou des règles et des récompenses préexistantes.
En réalité, l'IA telle que nous la connaissons dépend entièrement de structures politiques et sociales beaucoup plus vastes.
De plus, comme l'IA nécessite des capitaux pour être développée à grande échelle et des méthodes pour l'optimiser, les systèmes d'IA sont en fin de compte conçus pour servir des intérêts particuliers.
En ce sens, l'intelligence artificielle est un registre du pouvoir.

Cet ouvrage examine en profondeur la création de l'intelligence artificielle et explore les forces économiques, politiques, culturelles et historiques qui la façonnent. En reliant l'IA à ces structures et systèmes sociaux plus vastes, nous pouvons nous affranchir de l'idée reçue selon laquelle l'IA serait un domaine purement technologique.
Fondamentalement, l'IA est à la fois un acte technologique et social, une institution et une fondation, une entité politique et culturelle.
Le raisonnement opérationnel et le travail incarné sont profondément liés. Les systèmes d'IA reflètent et produisent à la fois une compréhension des relations sociales et du monde.

Dans cet ouvrage, l'IA est utilisée pour désigner « une structure industrielle à grande échelle englobant la politique, le travail, la culture et le capital ».
En réalité, le terme « intelligence artificielle » est davantage utilisé en marketing.
Le terme IA est souvent utilisé à tort et à travers lors des demandes de financement, lorsque les investisseurs en capital-risque se présentent avec leurs chéquiers, ou lorsque les chercheurs veulent attirer l'attention des médias sur leurs nouvelles recherches.
De ce fait, le terme IA change constamment de sens, étant tantôt adopté, tantôt rejeté.

Mais comment une carte peut-elle nous aider à comprendre le processus de création de l'intelligence artificielle ? La métaphore de la carte offre une nouvelle perspective pour appréhender l'intelligence artificielle.
Nous avons besoin d'un discours sur l'IA qui explique les nations et les entreprises qui pilotent et contrôlent l'IA, l'exploitation minière qui défigure la planète, la collecte massive de données et les pratiques de travail inégalitaires et abusives qui la sous-tendent.
Une approche géospatiale offre une perspective et une échelle nouvelles qui dépassent les promesses abstraites de l'intelligence artificielle ou des modèles d'apprentissage automatique modernes.
L’objectif est de comprendre l’IA dans un contexte plus large en explorant les différents domaines du calcul et leurs interconnexions.

Ce qui existe dans le domaine de l'IA n'est pas une boîte noire à ouvrir, un secret à dévoiler, mais plutôt une myriade de systèmes de pouvoir imbriqués.
Par conséquent, une transparence totale est un objectif impossible à atteindre. Pour mieux comprendre le rôle de l'IA dans le monde, il est indispensable de prendre en compte les structures matérielles, les environnements contextuels et les caractéristiques politiques dominantes, et d'analyser leurs interconnexions.
Les idées de l'auteur présentées dans cet ouvrage sont inspirées par près d'une décennie d'expérience au sein de laboratoires de recherche en IA, tant dans le milieu universitaire que dans l'industrie, et par sa formation en recherche scientifique et technologique, en droit et en philosophie politique.

Comment l'IA concentre-t-elle la richesse et le pouvoir ?
Exploitation des ressources naturelles, droits des travailleurs, vie privée, État et entreprises, inégalités… toutes ces questions liées à l’IA.


Ce livre définit l'intelligence artificielle comme une « industrie extractive ».
La création de systèmes d'IA modernes nécessite l'exploitation des ressources énergétiques et minérales de la Terre, d'une main-d'œuvre bon marché et d'énormes quantités de données.
Pour observer ce phénomène en action, l'auteur se rend dans des lieux où l'IA est réellement créée.
Un bon point de départ pour comprendre ce qu'est l'intelligence artificielle et de quoi elle est constituée est une mine de lithium du Nevada, aux États-Unis, l'une des nombreuses mines de minéraux nécessaires au fonctionnement des ordinateurs.


Le secteur minier est celui qui illustre le plus clairement la nature politique de l'extraction de l'IA.
La demande du secteur technologique en terres rares, en pétrole et en charbon est énorme, mais le coût réel de l'extraction de ces ressources est loin d'être supporté par l'industrie de l'IA.
Du côté des logiciels, la construction de modèles pour le traitement automatique du langage naturel et la vision par ordinateur exige d'énormes quantités d'énergie, et la course à la création de modèles plus rapides et plus efficaces a conduit à des techniques de calcul gourmandes en ressources qui augmentent l'empreinte carbone de l'IA.
Des derniers arbres de Malaisie abattus pour produire le latex nécessaire au premier câble sous-marin transatlantique aux immenses lacs artificiels de Mongolie-Intérieure où s'accumulent des résidus toxiques, nous retraçons les origines environnementales et humaines de notre réseau informatique mondial et examinons comment ces actions transforment la planète à grande échelle.

En réalité, l'intelligence artificielle est créée par le travail humain.
Les travailleurs numériques payés une misère pour des tâches répétitives, les employés des entrepôts Amazon qui suivent scrupuleusement les algorithmes d'un gigantesque empire logistique, les ouvriers des abattoirs de Chicago qui découpent et transforment les carcasses d'animaux… Comment s'adaptent-ils aux systèmes d'IA qui intensifient la surveillance et le contrôle pour leurs employeurs ? En analysant en détail comment les mécanismes de gestion du temps permettent d'adapter le comportement humain aux mouvements répétitifs des robots et des machines à la chaîne, et en identifiant les problèmes rencontrés, nous pouvons entrevoir à quoi ressemblera le travail de demain.
La logique d'extraction qui définit la relation entre la Terre et le travail humain est également liée à la manière dont l'IA utilise et comprend les données.


Tout matériel numérique accessible au public est collecté librement pour constituer des ensembles de données d'entraînement utilisés pour créer des modèles d'IA, qui servent ensuite à améliorer les algorithmes effectuant des fonctions telles que la reconnaissance faciale, la prédiction vocale et la détection d'objets.
Cependant, la pratique actuelle de l'IA utilisant les données soulève d'importantes préoccupations éthiques, méthodologiques et épistémologiques, en plus de graves problèmes tels que les atteintes à la vie privée et le capitalisme de surveillance.
L'exemple le plus représentatif est le comportement de classification dans les systèmes d'intelligence artificielle.
Nous examinons comment les systèmes actuels s'appuient sur le genre binaire, les classifications raciales homogènes et des évaluations discutables de la personnalité et de la solvabilité comme base principale pour prédire l'identité, et comment les systèmes d'IA renforcent les hiérarchies et amplifient les inégalités dans ce processus.

La manière dont l'IA reconnaît les émotions humaines est également une question importante.
Nous examinons les différentes affirmations concernant la reconnaissance des émotions à travers les recherches du psychologue Paul Ekman et d'autres, et explorons l'histoire de la reconnaissance des émotions lors d'un voyage dans un village de montagne en Papouasie-Nouvelle-Guinée.
Nous explorons comment des entreprises technologiques comme Amazon, Microsoft et IBM conçoivent et déploient des systèmes de détection des émotions, et examinons les controverses scientifiques, les préoccupations et les effets secondaires potentiels qui en découlent.

Un autre point clé de ce livre est la manière dont les systèmes d'IA sont utilisés comme outils du pouvoir d'État.
Les applications militaires passées et présentes de l'intelligence artificielle ont façonné des pratiques telles que la surveillance, l'extraction de données et l'évaluation des risques.
Les liens étroits entre les secteurs technologique et militaire sont contrôlés afin de servir un agenda nationaliste affirmé.
Parallèlement, les outils illégaux utilisés dans le secteur du renseignement se répandent du domaine militaire au secteur commercial, s'infiltrant dans les salles de classe, les commissariats, les lieux de travail et les centres d'aide à l'emploi. La logique militaire qui a façonné les systèmes d'IA est désormais intégrée au fonctionnement des collectivités locales, fragilisant davantage encore la relation entre l'État et ses citoyens.

Comprendre comment l'intelligence artificielle fonctionne comme une structure de pouvoir et relie les infrastructures, les capitaux et le travail, et développer des alternatives, est directement lié à notre présent et à notre avenir.
Du contrôle astucieux des chauffeurs Uber au suivi des immigrants sans papiers, en passant par les protestations des locataires de logements sociaux contre les systèmes de reconnaissance faciale dans leurs foyers, les systèmes d'IA sont construits selon la logique du capital, du maintien de l'ordre et de la militarisation, une combinaison qui exacerbe encore davantage les déséquilibres de pouvoir existants.
Par conséquent, les systèmes d'IA doivent ouvrir d'urgence de nouvelles voies vers la justice et l'égalité, plutôt que vers l'extraction industrielle et la discrimination.
Il est de plus en plus nécessaire de rejeter une approche privilégiant la technologie et d'élargir les mouvements nationaux et internationaux pour lutter contre les inégalités et les injustices sous-jacentes, en exigeant justice pour le travail, le climat et les données.
Ce livre examine de manière vivante comment l'intelligence artificielle est réellement créée, nous aidant à nous libérer des perceptions biaisées et de l'optimisme technologique incertain du passé et à envisager un avenir réaliste et durable.
SPÉCIFICATIONS DES PRODUITS
- Date de publication : 29 novembre 2022
Nombre de pages, poids, dimensions : 392 pages | 604 g | 145 × 218 × 25 mm
- ISBN13 : 9791188941896
- ISBN10 : 1188941895

Vous aimerez peut-être aussi

카테고리