Passer aux informations sur le produit
IA Risque Société et Politique
IA Risque Société et Politique
Description
Introduction au livre
Nous analysons comment les algorithmes des médias sociaux sapent les fondements de la démocratie en favorisant les biais de confirmation et la colère.
En nous appuyant sur la théorie de la société du risque, nous réinterprétons les environnements technologique, politique et cognitif et proposons une nouvelle vision politique pour restaurer notre souveraineté sur le jugement. Encyclopédie de l'IA.
Vous trouverez les connaissances en intelligence artificielle dont vous avez besoin sur aiseries.oopy.io.

  • Vous pouvez consulter un aperçu du contenu du livre.
    Aperçu

indice
À l'ère du biais de confirmation, à qui profitent les algorithmes ?

01 Une IA conçue pour les humains, qui déforme les humains

02 Entre les « J’aime » et les clics, la démocratie disparaît

03 Comment l'IA polarise-t-elle la société ?

04 Les faits disparaissent, seules les croyances demeurent.

05 Société du risque : l’incertitude engendrée par la technologie

06 Les algorithmes pourraient-ils devenir le nouveau fléau ?

07 La puissance des algorithmes, transparente et pourtant opaque

08 Le moment où le non-politique devient politique

09 30 ans de discours sur les catastrophes : les dangers de la politisation de la société coréenne

10. Un algorithme pour la démocratie est-il possible ?

Dans le livre
Qui enseignera l'IA ?
Quel genre d'être humain concevra l'IA, avec quelles valeurs et dans quel but ?

Lorsqu'un enseignant imparfait dispense un enseignement imparfait, l'IA, en tant qu'élève, ne peut jamais échapper à ces limitations.
Nous pouvons plutôt reproduire ces limitations et les étendre pour créer un système plus sophistiqué, plus rapide et plus universel.
Finalement, nous sommes entrés dans une ère où l'IA enseigne aux humains, mais en réalité, nous sommes dans une situation où une IA imparfaite, créée par l'homme, enseigne aux humains en retour.
C’est le paradoxe de l’ère de l’IA.
Bien que la technologie soit devenue plus précise, plus efficace et capable d'un apprentissage plus étendu, elle reste profondément marquée par les imperfections et les biais humains. Quelle que soit la quantité de données apprises par l'IA, elle ne peut garantir une réflexion éthique ni une pensée philosophique.
--- Extrait de « 01_« Une IA conçue pour les humains, qui déforme les humains » »

Comme nous l'avons vu, les médias, qui transmettent l'information, sont un acteur doté d'une grande responsabilité sociale.
Cependant, à mesure que cette responsabilité est transférée à une IA algorithmique, un problème structurel se pose. L'IA n'est pas tenue responsable et est plus susceptible d'opter pour un discours plus provocateur et émotionnellement chargé afin d'augmenter le nombre de clics et le temps passé sur les pages.
Autrement dit, l'algorithme fonctionne de manière à stimuler l'intérêt de l'utilisateur, et ce faisant, l'équilibre entre information et intérêt public risque d'être sacrifié.
--- Extrait de « 03_« Comment l’IA polarise-t-elle la société ? »

Le problème actuel est que ces interprétations et récits des risques commencent à être orchestrés par des algorithmes d'IA.
Lorsqu'une catastrophe survient, les gens regardent les informations et recherchent des renseignements.
Mais quelles actualités apparaissent en premier ? Quels hashtags sont les plus populaires en temps réel ? Qui apparaît en premier sur le fil d’actualité des utilisateurs ? Désormais, tout cela est déterminé par des algorithmes.
L'algorithme priorise les clics et les réponses.
C’est pourquoi plus l’information est provocatrice et émotionnelle, plus elle se propage.
La peur, la colère, le dégoût et les théories du complot se répandent rapidement, et les explications calmes et les analyses complexes passent au second plan.
De cette manière, les algorithmes biaisent notre interprétation des catastrophes, rendent certains discours « dominants » et restructurent la structure même du risque.
--- Extrait de « 06_« Les algorithmes peuvent-ils devenir un nouveau désastre ? »

Ces dernières années, la politisation du discours sur les catastrophes est devenue plus complexe.
Au cœur de ce système se trouve un nouvel acteur technologique : les algorithmes d’IA. L’IA fournit des informations et des interprétations différentes selon les préférences individuelles et les opinions politiques.
(…) Les algorithmes d’IA ne sont jamais neutres.
Les algorithmes fournissent des informations qui semblent objectives et neutres, mais en réalité, ils privilégient les contenus provocateurs sur lesquels les utilisateurs restent plus longtemps et sur lesquels ils cliquent plus fréquemment.
Au final, cela polarise davantage les perceptions sociales entourant les catastrophes, créant des réalités disparates où la communication est impossible.
--- Extrait de « 09_« 30 ans de discours sur les catastrophes : les dangers de la politisation de la société coréenne »

Avis de l'éditeur
La politique de l'indignation remodelée par les algorithmes : réexaminer la démocratie dans une société à risque face à l'IA.

Ces jours-ci, la place est emplie de colère.
Il est devenu courant que des personnes qui se connaissent à peine expriment une haine intense l'une envers l'autre par leur simple présence.
En retraçant les enjeux politiques de cette colère inédite, nous dévoilons le visage de la technologie – les algorithmes d’IA – qui œuvrent discrètement en coulisses. Sous couvert de « bien vous connaître », les réseaux sociaux et les systèmes de recommandation renforcent les biais de confirmation des utilisateurs, les contraignent à ne voir que ce qu’ils veulent voir et créent des citoyens vivant dans des mondes parallèles.
Il ne s'agit pas simplement d'un problème technique ; c'est une restructuration de la perception sociale et un changement structurel qui ébranle les fondements de la démocratie.
L'auteur interprète l'IA comme un nouveau type de catastrophe en se basant sur la théorie de la société du risque d'Ulrich Beck.
Ceci s'explique par le fait que, plutôt que de causer des dommages physiques, cela provoque une polarisation cognitive, une déconnexion sociale et des excès politiques.
Au-delà d'une critique de la technologie, nous nous interrogeons sur le type d'écosystème algorithmique que nous devrions exiger, sur la manière dont la démocratie devrait protéger l'environnement cognitif des citoyens et sur la façon dont nous pouvons restaurer la souveraineté du jugement politique.
À l'instar de la métaphore des freins et du volant, elle ne rejette pas la technologie, mais suggère une orientation normative permettant aux humains de reprendre le contrôle.
Il s'agit d'un guide politique pour l'ère de l'IA, aidant les citoyens piégés dans des mondes différents à redécouvrir un monde commun.
SPÉCIFICATIONS DES PRODUITS
- Date d'émission : 25 novembre 2025
- Nombre de pages, poids, dimensions : 125 pages | 128 × 188 × 7 mm
- ISBN13 : 9791143011664

Vous aimerez peut-être aussi

카테고리