
L'illusion que les algorithmes règnent
Description
Introduction au livre
Un chef-d'œuvre d'un mathématicien appliqué de renommée mondiale qui soulève des questions importantes en disséquant mathématiquement la croyance répandue selon laquelle les algorithmes dominent les humains.
Ce livre soutient que la controverse entourant les algorithmes du big data, et notamment la peur généralisée récente des médias sociaux et de l'intelligence artificielle, a été exagérée par les médias et certains experts, offrant une perspective équilibrée que nous, qui vivons entourés d'algorithmes, devons adopter.
Ce livre analyse mathématiquement les algorithmes, de Facebook et Google aux fausses informations et à l'intelligence artificielle, et remet en question avec audace notre bon sens.
Il souligne que les affirmations selon lesquelles Facebook nous connaît parfaitement ne sont que du battage médiatique, apaise les inquiétudes selon lesquelles les médias sociaux nous enferment dans des points de vue biaisés et soutient qu'il n'y a pas lieu d'avoir une peur excessive des fausses informations.
L'affirmation d'Elon Musk selon laquelle l'intelligence artificielle remplacera bientôt les humains se révèle également être une spéculation sans fondement au vu de l'état actuel de la recherche.
Des algorithmes qui nous analysent, nous influencent et qui, selon la croyance, deviendront un jour comme nous.
David Sumpter déconstruit les principes mathématiques qui sous-tendent les algorithmes fonctionnant en coulisses, révélant que le plus grand danger réside dans notre incapacité à évaluer rationnellement leur impact et dans notre emprise sur les scénarios de science-fiction.
Ce livre soutient que la controverse entourant les algorithmes du big data, et notamment la peur généralisée récente des médias sociaux et de l'intelligence artificielle, a été exagérée par les médias et certains experts, offrant une perspective équilibrée que nous, qui vivons entourés d'algorithmes, devons adopter.
Ce livre analyse mathématiquement les algorithmes, de Facebook et Google aux fausses informations et à l'intelligence artificielle, et remet en question avec audace notre bon sens.
Il souligne que les affirmations selon lesquelles Facebook nous connaît parfaitement ne sont que du battage médiatique, apaise les inquiétudes selon lesquelles les médias sociaux nous enferment dans des points de vue biaisés et soutient qu'il n'y a pas lieu d'avoir une peur excessive des fausses informations.
L'affirmation d'Elon Musk selon laquelle l'intelligence artificielle remplacera bientôt les humains se révèle également être une spéculation sans fondement au vu de l'état actuel de la recherche.
Des algorithmes qui nous analysent, nous influencent et qui, selon la croyance, deviendront un jour comme nous.
David Sumpter déconstruit les principes mathématiques qui sous-tendent les algorithmes fonctionnant en coulisses, révélant que le plus grand danger réside dans notre incapacité à évaluer rationnellement leur impact et dans notre emprise sur les scénarios de science-fiction.
- Vous pouvez consulter un aperçu du contenu du livre.
Aperçu
indice
Recommandation | 60 % de vérité – Park Sang-hyun (chroniqueur)
Partie 1 | Les algorithmes qui nous analysent
Chapitre 1 | À la recherche de Banksy
Chapitre 2 | Faites du bruit
Chapitre 3 | Les ingrédients de l'amitié
Chapitre 4 | Votre double à 100 dimensions
Chapitre 5 | Le battage médiatique autour de Cambridge Analytica
Chapitre 6 | L'absence totale de biais est impossible
Chapitre 7 | Les alchimistes des données
Partie 2 | Les algorithmes qui nous affectent
Chapitre 8 | Nate Silver et nous
Chapitre 9 | Algorithmes de recommandation et modèle « J’aime »
Chapitre 10 | La course à la popularité
Chapitre 11 | Bulle de filtration
Chapitre 12 | Le football, une affaire importante
Chapitre 13 | Qui lit les fausses nouvelles ?
Partie 3 | Des algorithmes qui deviennent comme nous
Chapitre 14 | Apprendre sur le sexisme
Chapitre 15 | La seule pensée en nombres
Chapitre 16 | Je te marcherai dessus, c'est certain, dans Space Invaders
Chapitre 17 | Le cerveau bactérien
Chapitre 18 | Retour à la réalité
principal
Remerciements
Note du traducteur
Recherche
Partie 1 | Les algorithmes qui nous analysent
Chapitre 1 | À la recherche de Banksy
Chapitre 2 | Faites du bruit
Chapitre 3 | Les ingrédients de l'amitié
Chapitre 4 | Votre double à 100 dimensions
Chapitre 5 | Le battage médiatique autour de Cambridge Analytica
Chapitre 6 | L'absence totale de biais est impossible
Chapitre 7 | Les alchimistes des données
Partie 2 | Les algorithmes qui nous affectent
Chapitre 8 | Nate Silver et nous
Chapitre 9 | Algorithmes de recommandation et modèle « J’aime »
Chapitre 10 | La course à la popularité
Chapitre 11 | Bulle de filtration
Chapitre 12 | Le football, une affaire importante
Chapitre 13 | Qui lit les fausses nouvelles ?
Partie 3 | Des algorithmes qui deviennent comme nous
Chapitre 14 | Apprendre sur le sexisme
Chapitre 15 | La seule pensée en nombres
Chapitre 16 | Je te marcherai dessus, c'est certain, dans Space Invaders
Chapitre 17 | Le cerveau bactérien
Chapitre 18 | Retour à la réalité
principal
Remerciements
Note du traducteur
Recherche
Image détaillée

Dans le livre
« Les mathématiques détruisent notre authenticité personnelle, légitiment des rumeurs infondées, accusent des citoyens de Birmingham de terrorisme, collectent d'énormes quantités de données au sein d'entreprises irresponsables et créent des superintelligences qui surveillent nos actions. »
Ces problèmes sont-ils vraiment graves, et ces scénarios sont-ils réalistes ? J’ai décidé de trouver la réponse de la seule manière que je connaissais.
La façon d'y parvenir est d'examiner les données, de calculer les statistiques et de faire des mathématiques. » --- p.
24
« Si vous utilisez quotidiennement Facebook, Instagram, Snapchat, Twitter ou tout autre réseau social, vous êtes probablement submergé par le nombre de publications. »
Vous permettez que votre personnalité ne soit qu'un point dans un espace aux centaines de dimensions, que vos émotions soient quantifiées et que votre comportement futur soit modélisé et prédit.
« Tout cela se fait non seulement efficacement, mais automatiquement, d'une manière presque incompréhensible pour la plupart d'entre nous. » — p. 61
« Il est important de faire la distinction entre la découverte scientifique — par exemple, une corrélation entre un ensemble particulier de « J’aime » sur Facebook et les résultats d’un test de personnalité — et la mise en œuvre d’un algorithme fiable basé sur cette découverte — par exemple, l’élaboration d’une formule qui prédit avec précision votre type de personnalité. »
Les découvertes scientifiques peuvent être vraies et intéressantes.
Toutefois, à moins que les corrélations trouvées ne soient très fortes, il est impossible de prédire de manière fiable le comportement individuel à partir de résultats scientifiques.
--- p.
80
« Alors que des entreprises comme Facebook et Spotify, des agences de voyages et des cabinets de conseil en sport prétendent proposer des algorithmes qui nous catégorisent et expliquent notre comportement, je dois en savoir plus sur la précision de ces algorithmes. »
« Ces algorithmes nous connaissent-ils vraiment ? Pourraient-ils commettre d’autres erreurs, plus dangereuses encore ? »
--- p., 86
« Le travail d’analyse des algorithmes d’analyse de la personnalité a changé ma perspective de manière inattendue. »
« Si mes inquiétudes concernant la précision dangereuse des prédictions des algorithmes ont diminué, mes inquiétudes quant à la manière dont ils sont présentés se sont accrues. »
--- p.87
« Ce n’est que lorsque les accusés noirs de Broward, en Floride, auront le même taux de récidive que les accusés blancs, ou lorsqu’il y aura autant de femmes que d’hommes se spécialisant en programmation informatique, que nous pourrons espérer créer des algorithmes totalement exempts de préjugés. »
« Si le monde dans lequel nous vivons n’est pas égal à tous égards, nous ne pouvons pas nous attendre à ce que les algorithmes soient parfaitement équitables. »
--- p.100
« D’expérience, les prédictions des algorithmes concernant notre comportement sont loin d’être aussi précises que celles d’autres personnes. »
« Les algorithmes fonctionnent mieux lorsqu'ils sont utilisés par quelqu'un qui comprend leurs limites. »
--- p.117
« Lorsque j’examine des modèles que j’ai étudiés en détail – des modèles qui prédisent la probabilité qu’un but soit marqué au football, les goûts musicaux, les taux de criminalité et la personnalité politique – j’arrive à la même conclusion :
« La précision de l’algorithme est au mieux comparable à celle d’un humain. »
--- p.121
« En ce qui concerne notre capacité à analyser notre comportement, les algorithmes que nous avons vus jusqu’à présent sont au mieux équivalents aux humains. »
L'équipe de Mechanical Tucker, en collaboration avec les recherches de Julia Dressel, a pu prédire la récidive avec une précision similaire à celle des algorithmes les plus performants, mais en utilisant beaucoup moins de données.
Les modèles de personnalité basés sur les « goûts » sont encore loin de nous « connaître » en tant qu'individus.
Spotify cherche à déterminer comment nous recommander de la musique, ainsi qu'à nos amis.
--- p.
135
« Dans mon modèle, les consommateurs se fichent de la qualité d’un livre. »
Ils achètent des livres en fonction de liens fournis par des algorithmes.
Ainsi, deux auteurs tout aussi talentueux peuvent se retrouver avec des chiffres de vente radicalement différents, l'un devenant un auteur à succès et l'autre vendant beaucoup moins d'exemplaires.
Même si tous les livres sont exactement de la même qualité, certains deviendront des best-sellers, tandis que d'autres connaîtront des échecs commerciaux.
--- p.159
« À la lecture de ces articles, on avait l’impression que nous laissions des algorithmes décider de ce que nous pensons et de ce que nous faisons. »
Il existait un risque réel que certaines des informations qui nous étaient fournies soient déformées ou fabriquées par des individus mal intentionnés à des fins politiques.
Cependant, je n'ai pas apprécié la façon dont les mathématiques étaient utilisées dans ces articles.
J'ai également trouvé les implications concernant la consommation médiatique des individus troublantes.
Les gens sont-ils vraiment si fortement influencés par ce qu'ils voient sur Facebook ? Beaucoup de mes collègues semblaient le penser aussi.
Mais je n'en étais pas sûr.
--- p.
196~197
« L’effet du filtrage était négligeable. »
Les démocrates comme les républicains étaient à peine moins exposés aux opinions divergentes.
Nous sommes plus susceptibles de voir des publications de nos amis proches dans nos fils d'actualité, mais les opinions politiques qu'ils expriment ne sont pas plus extrêmes que celles de l'ensemble de notre groupe d'amis.
Une grande partie de ce que nous voyons sur Facebook ne correspond pas à nos propres opinions.
Par ailleurs, l'étude a révélé que les républicains, souvent critiqués pour être un groupe fermé, étaient exposés à un peu plus d'opinions divergentes que les démocrates.
--- p.217
« On parle beaucoup de Facebook et de son impact sur nos vies. »
Cependant, après avoir examiné attentivement des études à grande échelle et discuté avec les chercheurs impliqués, je me suis rendu compte que les résultats de la recherche sont presque toujours rapportés dans les médias de manière déformée ou exagérée.
Ce tumulte était en contradiction avec mes propres connaissances scientifiques.
Bien sûr, il ne s'agit pas d'une agitation absurde.
Facebook pourrait créer une petite bulle le jour des élections afin d'augmenter légèrement le nombre de votants.
Cela peut aussi légèrement ébranler notre bulle émotionnelle en nous montrant des publications déprimantes.
Il est indéniable que les informations que nous fournit Facebook ne reflètent pas pleinement la diversité des opinions exprimées à travers le monde.
Mais ce ne sont pas des influences qui changent la vie.
« L’impact de Facebook sur nos vies est très faible comparé à l’impact de nos relations humaines quotidiennes sur notre vie réelle. »
--- p.221~222
« Bien qu’ils présentent une légère tendance progressiste, ces réseaux sociaux contribuent à la diffusion et au partage d’informations diverses. »
Globalement, nous sommes exposés à une multitude de points de vue.
Certains nous plaisent, d'autres nous déplaisent.
Mais tous ces points de vue nous apportent des informations sur le monde dans lequel nous vivons.
« Nos nombreux liens sociaux nous empêchent d’être piégés dans une bulle de filtres. »
--- p.234~235
« Il n’existe aucune preuve concrète que la propagation de fausses informations modifie le cours des élections ou que la prolifération des bots ait un impact négatif sur les débats politiques. »
Nous ne vivons pas dans un monde « post-vérité ».
Nos passe-temps et nos centres d'intérêt permettent aux opinions politiques des autres de s'infiltrer dans notre bulle.
Pour l'instant du moins, les seuls interlocuteurs de ces bots sont d'autres bots et un petit nombre d'Américains d'extrême droite.
…et puis, de toute façon, personne ne se souvient vraiment des fausses informations.
« Les informations que les républicains reçoivent sur Facebook, à travers les partages de leurs amis et la sélection de l'algorithme de Facebook, ont tendance à être légèrement plus conservatrices que les informations sélectionnées de manière totalement aléatoire. »
--- p.
254
« J’ai découvert que les algorithmes d’inférence de mots sont toujours sous notre contrôle. »
Bien que ces algorithmes aient appris de manière autonome en se basant uniquement sur nos données, il s'avère que nous pouvons comprendre ce qui se passe à l'intérieur et modifier les résultats qu'ils produisent.
Contrairement aux connexions de mon cerveau — où mes réactions implicites aux mots sont intimement liées à mon enfance, à mon éducation et à mes expériences professionnelles —, les connexions qui sous-tendent le sexisme algorithmique peuvent être dénouées et modifiées.
Il est donc inapproprié d'affirmer que l'algorithme est sexiste.
En réalité, l'analyse des algorithmes peut nous aider à mieux comprendre notre propre sexisme implicite.
Ce travail révèle à quel point les stéréotypes sont profondément ancrés dans notre culture.
--- p.283
« Malgré la conviction des intervenants (Elon Musk, Ray Kurzweil, Demis Hassabis et Nick Bostrom) que l’intelligence artificielle générale est en route, mon scepticisme s’est renforcé au fur et à mesure que je regardais le débat. »
Depuis un an, je dissèque les algorithmes des entreprises dirigées par ces types-là.
D'après mes observations, je ne comprends tout simplement pas d'où ils pensent que provient l'intelligence artificielle générale.
Dans les algorithmes qu'ils développent, je trouve peu d'éléments qui laissent penser qu'une intelligence de type humain se profile à l'horizon.
D'après ce que j'ai pu constater, les intervenants, qui étaient des personnalités importantes du secteur technologique, ne prenaient pas le sujet de leur discussion au sérieux.
Ils se livraient à des spéculations, mais les spéculations ne sont pas une science.
« La discussion était purement divertissante. »
--- p.334~335
« La vérité qui se cache derrière les algorithmes actuels est non seulement plus banale, mais aussi beaucoup plus simple que ne le suggère le terme « intelligence artificielle ». »
En examinant les algorithmes qui tentent de nous classer, j'ai découvert qu'ils ne sont rien de plus que des représentations statistiques de ce que nous savons déjà de nous-mêmes.
En analysant les algorithmes qui tentent de nous influencer, j'ai constaté qu'ils exploitent des aspects très simples de notre comportement pour déterminer les informations de recherche et les publicités à nous afficher.
…lorsqu’Alex et moi avons construit notre propre robot linguistique, celui-ci nous a surpris en prononçant quelques phrases convaincantes, mais il s’est rapidement révélé être une imposture totale.
--- p.350~351
« Les possibilités de développer des produits et services exceptionnels grâce aux algorithmes que nous explorons dans ce livre sont infinies. »
Bien que ces algorithmes continuent de transformer nos maisons, nos lieux de travail et notre façon de voyager, nous sommes encore loin d'une intelligence artificielle générale.
La technologie confère à nos grille-pain, à nos équipements audio domestiques, à nos bureaux et à nos voitures une sorte d'intelligence bactérienne.
« Ces algorithmes ont le potentiel de réduire les tâches répétitives que nous devons accomplir, mais ils ne seront pas capables d'effectuer un comportement semblable à celui des humains. » --- p.
353
« Revenons au monde réel. »
L'être humain restera le seul détenteur d'une intelligence de type humain pendant encore longtemps.
La vraie question est de savoir si nous utiliserons les algorithmes déjà développés pour répondre aux besoins et à la commodité de quelques-uns, ou pour le bien de la société dans son ensemble.
« Je sais laquelle de ces deux options je préfère. »
Ces problèmes sont-ils vraiment graves, et ces scénarios sont-ils réalistes ? J’ai décidé de trouver la réponse de la seule manière que je connaissais.
La façon d'y parvenir est d'examiner les données, de calculer les statistiques et de faire des mathématiques. » --- p.
24
« Si vous utilisez quotidiennement Facebook, Instagram, Snapchat, Twitter ou tout autre réseau social, vous êtes probablement submergé par le nombre de publications. »
Vous permettez que votre personnalité ne soit qu'un point dans un espace aux centaines de dimensions, que vos émotions soient quantifiées et que votre comportement futur soit modélisé et prédit.
« Tout cela se fait non seulement efficacement, mais automatiquement, d'une manière presque incompréhensible pour la plupart d'entre nous. » — p. 61
« Il est important de faire la distinction entre la découverte scientifique — par exemple, une corrélation entre un ensemble particulier de « J’aime » sur Facebook et les résultats d’un test de personnalité — et la mise en œuvre d’un algorithme fiable basé sur cette découverte — par exemple, l’élaboration d’une formule qui prédit avec précision votre type de personnalité. »
Les découvertes scientifiques peuvent être vraies et intéressantes.
Toutefois, à moins que les corrélations trouvées ne soient très fortes, il est impossible de prédire de manière fiable le comportement individuel à partir de résultats scientifiques.
--- p.
80
« Alors que des entreprises comme Facebook et Spotify, des agences de voyages et des cabinets de conseil en sport prétendent proposer des algorithmes qui nous catégorisent et expliquent notre comportement, je dois en savoir plus sur la précision de ces algorithmes. »
« Ces algorithmes nous connaissent-ils vraiment ? Pourraient-ils commettre d’autres erreurs, plus dangereuses encore ? »
--- p., 86
« Le travail d’analyse des algorithmes d’analyse de la personnalité a changé ma perspective de manière inattendue. »
« Si mes inquiétudes concernant la précision dangereuse des prédictions des algorithmes ont diminué, mes inquiétudes quant à la manière dont ils sont présentés se sont accrues. »
--- p.87
« Ce n’est que lorsque les accusés noirs de Broward, en Floride, auront le même taux de récidive que les accusés blancs, ou lorsqu’il y aura autant de femmes que d’hommes se spécialisant en programmation informatique, que nous pourrons espérer créer des algorithmes totalement exempts de préjugés. »
« Si le monde dans lequel nous vivons n’est pas égal à tous égards, nous ne pouvons pas nous attendre à ce que les algorithmes soient parfaitement équitables. »
--- p.100
« D’expérience, les prédictions des algorithmes concernant notre comportement sont loin d’être aussi précises que celles d’autres personnes. »
« Les algorithmes fonctionnent mieux lorsqu'ils sont utilisés par quelqu'un qui comprend leurs limites. »
--- p.117
« Lorsque j’examine des modèles que j’ai étudiés en détail – des modèles qui prédisent la probabilité qu’un but soit marqué au football, les goûts musicaux, les taux de criminalité et la personnalité politique – j’arrive à la même conclusion :
« La précision de l’algorithme est au mieux comparable à celle d’un humain. »
--- p.121
« En ce qui concerne notre capacité à analyser notre comportement, les algorithmes que nous avons vus jusqu’à présent sont au mieux équivalents aux humains. »
L'équipe de Mechanical Tucker, en collaboration avec les recherches de Julia Dressel, a pu prédire la récidive avec une précision similaire à celle des algorithmes les plus performants, mais en utilisant beaucoup moins de données.
Les modèles de personnalité basés sur les « goûts » sont encore loin de nous « connaître » en tant qu'individus.
Spotify cherche à déterminer comment nous recommander de la musique, ainsi qu'à nos amis.
--- p.
135
« Dans mon modèle, les consommateurs se fichent de la qualité d’un livre. »
Ils achètent des livres en fonction de liens fournis par des algorithmes.
Ainsi, deux auteurs tout aussi talentueux peuvent se retrouver avec des chiffres de vente radicalement différents, l'un devenant un auteur à succès et l'autre vendant beaucoup moins d'exemplaires.
Même si tous les livres sont exactement de la même qualité, certains deviendront des best-sellers, tandis que d'autres connaîtront des échecs commerciaux.
--- p.159
« À la lecture de ces articles, on avait l’impression que nous laissions des algorithmes décider de ce que nous pensons et de ce que nous faisons. »
Il existait un risque réel que certaines des informations qui nous étaient fournies soient déformées ou fabriquées par des individus mal intentionnés à des fins politiques.
Cependant, je n'ai pas apprécié la façon dont les mathématiques étaient utilisées dans ces articles.
J'ai également trouvé les implications concernant la consommation médiatique des individus troublantes.
Les gens sont-ils vraiment si fortement influencés par ce qu'ils voient sur Facebook ? Beaucoup de mes collègues semblaient le penser aussi.
Mais je n'en étais pas sûr.
--- p.
196~197
« L’effet du filtrage était négligeable. »
Les démocrates comme les républicains étaient à peine moins exposés aux opinions divergentes.
Nous sommes plus susceptibles de voir des publications de nos amis proches dans nos fils d'actualité, mais les opinions politiques qu'ils expriment ne sont pas plus extrêmes que celles de l'ensemble de notre groupe d'amis.
Une grande partie de ce que nous voyons sur Facebook ne correspond pas à nos propres opinions.
Par ailleurs, l'étude a révélé que les républicains, souvent critiqués pour être un groupe fermé, étaient exposés à un peu plus d'opinions divergentes que les démocrates.
--- p.217
« On parle beaucoup de Facebook et de son impact sur nos vies. »
Cependant, après avoir examiné attentivement des études à grande échelle et discuté avec les chercheurs impliqués, je me suis rendu compte que les résultats de la recherche sont presque toujours rapportés dans les médias de manière déformée ou exagérée.
Ce tumulte était en contradiction avec mes propres connaissances scientifiques.
Bien sûr, il ne s'agit pas d'une agitation absurde.
Facebook pourrait créer une petite bulle le jour des élections afin d'augmenter légèrement le nombre de votants.
Cela peut aussi légèrement ébranler notre bulle émotionnelle en nous montrant des publications déprimantes.
Il est indéniable que les informations que nous fournit Facebook ne reflètent pas pleinement la diversité des opinions exprimées à travers le monde.
Mais ce ne sont pas des influences qui changent la vie.
« L’impact de Facebook sur nos vies est très faible comparé à l’impact de nos relations humaines quotidiennes sur notre vie réelle. »
--- p.221~222
« Bien qu’ils présentent une légère tendance progressiste, ces réseaux sociaux contribuent à la diffusion et au partage d’informations diverses. »
Globalement, nous sommes exposés à une multitude de points de vue.
Certains nous plaisent, d'autres nous déplaisent.
Mais tous ces points de vue nous apportent des informations sur le monde dans lequel nous vivons.
« Nos nombreux liens sociaux nous empêchent d’être piégés dans une bulle de filtres. »
--- p.234~235
« Il n’existe aucune preuve concrète que la propagation de fausses informations modifie le cours des élections ou que la prolifération des bots ait un impact négatif sur les débats politiques. »
Nous ne vivons pas dans un monde « post-vérité ».
Nos passe-temps et nos centres d'intérêt permettent aux opinions politiques des autres de s'infiltrer dans notre bulle.
Pour l'instant du moins, les seuls interlocuteurs de ces bots sont d'autres bots et un petit nombre d'Américains d'extrême droite.
…et puis, de toute façon, personne ne se souvient vraiment des fausses informations.
« Les informations que les républicains reçoivent sur Facebook, à travers les partages de leurs amis et la sélection de l'algorithme de Facebook, ont tendance à être légèrement plus conservatrices que les informations sélectionnées de manière totalement aléatoire. »
--- p.
254
« J’ai découvert que les algorithmes d’inférence de mots sont toujours sous notre contrôle. »
Bien que ces algorithmes aient appris de manière autonome en se basant uniquement sur nos données, il s'avère que nous pouvons comprendre ce qui se passe à l'intérieur et modifier les résultats qu'ils produisent.
Contrairement aux connexions de mon cerveau — où mes réactions implicites aux mots sont intimement liées à mon enfance, à mon éducation et à mes expériences professionnelles —, les connexions qui sous-tendent le sexisme algorithmique peuvent être dénouées et modifiées.
Il est donc inapproprié d'affirmer que l'algorithme est sexiste.
En réalité, l'analyse des algorithmes peut nous aider à mieux comprendre notre propre sexisme implicite.
Ce travail révèle à quel point les stéréotypes sont profondément ancrés dans notre culture.
--- p.283
« Malgré la conviction des intervenants (Elon Musk, Ray Kurzweil, Demis Hassabis et Nick Bostrom) que l’intelligence artificielle générale est en route, mon scepticisme s’est renforcé au fur et à mesure que je regardais le débat. »
Depuis un an, je dissèque les algorithmes des entreprises dirigées par ces types-là.
D'après mes observations, je ne comprends tout simplement pas d'où ils pensent que provient l'intelligence artificielle générale.
Dans les algorithmes qu'ils développent, je trouve peu d'éléments qui laissent penser qu'une intelligence de type humain se profile à l'horizon.
D'après ce que j'ai pu constater, les intervenants, qui étaient des personnalités importantes du secteur technologique, ne prenaient pas le sujet de leur discussion au sérieux.
Ils se livraient à des spéculations, mais les spéculations ne sont pas une science.
« La discussion était purement divertissante. »
--- p.334~335
« La vérité qui se cache derrière les algorithmes actuels est non seulement plus banale, mais aussi beaucoup plus simple que ne le suggère le terme « intelligence artificielle ». »
En examinant les algorithmes qui tentent de nous classer, j'ai découvert qu'ils ne sont rien de plus que des représentations statistiques de ce que nous savons déjà de nous-mêmes.
En analysant les algorithmes qui tentent de nous influencer, j'ai constaté qu'ils exploitent des aspects très simples de notre comportement pour déterminer les informations de recherche et les publicités à nous afficher.
…lorsqu’Alex et moi avons construit notre propre robot linguistique, celui-ci nous a surpris en prononçant quelques phrases convaincantes, mais il s’est rapidement révélé être une imposture totale.
--- p.350~351
« Les possibilités de développer des produits et services exceptionnels grâce aux algorithmes que nous explorons dans ce livre sont infinies. »
Bien que ces algorithmes continuent de transformer nos maisons, nos lieux de travail et notre façon de voyager, nous sommes encore loin d'une intelligence artificielle générale.
La technologie confère à nos grille-pain, à nos équipements audio domestiques, à nos bureaux et à nos voitures une sorte d'intelligence bactérienne.
« Ces algorithmes ont le potentiel de réduire les tâches répétitives que nous devons accomplir, mais ils ne seront pas capables d'effectuer un comportement semblable à celui des humains. » --- p.
353
« Revenons au monde réel. »
L'être humain restera le seul détenteur d'une intelligence de type humain pendant encore longtemps.
La vraie question est de savoir si nous utiliserons les algorithmes déjà développés pour répondre aux besoins et à la commodité de quelques-uns, ou pour le bien de la société dans son ensemble.
« Je sais laquelle de ces deux options je préfère. »
--- p.
354
354
Avis de l'éditeur
Les nombreux mythes et idées fausses qui entourent les géants de la tech.
Au-delà de ce scénario fictif, un mathématicien de renommée mondiale pose la question
Le sujet le plus urgent de l'ère du big data
L'auteur du meilleur article de mathématiques a reçu le prix Catherine Richards.
Fortement recommandé par le chroniqueur Park Sang-hyun !
« Le pouvoir de la pensée mathématique » de Kit Yates est fortement recommandé !
J'ai cliqué sur S'abonner, J'aime et Paramètres de notification
« Un livre que tout le monde devrait lire »
« Facebook nous contrôle », « Les réseaux sociaux nous imposent certaines opinions et divisent la société en deux », « L’élection de Trump a été manipulée par de fausses informations », « Une intelligence artificielle imitant parfaitement l’intelligence humaine va émerger et remplacer les humains »… À l’ère des algorithmes du big data, les humains sont devenus de simples marchandises.
Les prophéties concernant le sombre avenir de l'humanité, engendré par les algorithmes, se font entendre.
Ces prophéties sont-elles réellement vraies ? Dans quelle mesure les scénarios dystopiques algorithmiques qui circulent actuellement sont-ils réalistes ?
Ici, un mathématicien remet en question la validité des inquiétudes concernant la domination algorithmique.
Le mathématicien appliqué de renommée mondiale David Sumpter utilise ce qu'il fait de mieux — les mathématiques — pour examiner des données, calculer des statistiques et tester des scénarios un par un.
Sans ignorer le fait que les données sont utilisées contre nous, Sumpter n'est pas excessivement optimiste quant aux capacités des algorithmes, offrant une perspective équilibrée que nous, qui vivons entourés d'algorithmes, devons adopter.
Des algorithmes qui nous analysent, nous influencent et qui, selon la croyance, deviendront un jour comme nous.
En disséquant les principes mathématiques des algorithmes qui fonctionnent en secret, l'auteur révèle que le plus grand danger réside dans notre incapacité à évaluer rationnellement leur impact et dans notre emprise sur les scénarios de science-fiction.
De Facebook à Google, les fausses informations
Les intuitions perspicaces d'un mathématicien qui remettent en question la sagesse conventionnelle
« Avant de lire ce livre, j'avais
« Beaucoup de mes idées ont changé. » – Park Sang-hyun (chroniqueur numérique)
De Facebook et Google aux fausses informations et à l'intelligence artificielle, David Sumpter explore le monde des algorithmes, remettant en question nos idées reçues.
L'une d'elles est une réfutation scientifique de la croyance répandue selon laquelle Facebook nous connaît parfaitement et utilise ces informations pour nous manipuler.
Par exemple, en 2012, les médias ont fait les gros titres en rapportant des recherches montrant que Facebook pouvait manipuler nos émotions.
Mais les recherches sur lesquelles ces articles se fondaient ont seulement révélé que les utilisateurs avaient tendance à utiliser un mot négatif de plus par mois, quelle que soit la quantité d'informations négatives qu'ils consommaient.
Les médias ont surestimé les risques liés aux algorithmes, ignorant le fait que, bien que statistiquement significatif, leur impact sur les résultats concrets était minime.
Alors que beaucoup s'inquiètent de l'impact des réseaux sociaux, notamment Facebook, sur nos vies, les conclusions de Sumpter montrent que la plupart de ces inquiétudes sont exagérées par une couverture médiatique indiscriminée.
Bien que nous ayons tendance à recevoir des publications aux opinions similaires (une bulle de filtres) en nouant des amitiés avec des personnes partageant nos convictions politiques sur les réseaux sociaux, les recherches montrent que les individus sont également exposés de manière significative à des opinions différentes des leurs.
Rares sont ceux qui utilisent les réseaux sociaux uniquement à des fins politiques ; la plupart partagent divers loisirs et intérêts, et c'est cette tendance qui permet aux opinions d'autrui de s'infiltrer dans notre bulle.
Il n'existe par ailleurs aucune preuve concrète que la propagation de fausses informations modifie le cours des élections ou que la montée en puissance des robots sur les réseaux sociaux ait un impact négatif sur les discussions politiques des citoyens.
« La vérité qui se cache derrière l'algorithme actuel est… »
Bien plus que ce que le terme « intelligence artificielle » implique
« Non seulement c’est plus courant, mais c’est aussi beaucoup plus simple. »
L'état actuel de la recherche révèle également que la théorie selon laquelle une intelligence artificielle générale, capable de reproduire les capacités cognitives humaines, apparaîtra bientôt et remplacera les humains, n'est qu'une spéculation sans fondement.
Sumpter, qui a analysé en profondeur les algorithmes d'entreprises dirigées par des pionniers de la Big Tech tels que le PDG de Tesla, Elon Musk, le futuriste de Google, Ray Kurzweil, et le fondateur de DeepMind, Demis Hassabis, affirme n'avoir trouvé aucun indice laissant présager l'avènement d'une intelligence semblable à celle de l'homme.
Les réseaux neuronaux artificiels, algorithmes qui imitent la structure du réseau neuronal du cerveau, ont réalisé des prouesses techniques impressionnantes dans certains jeux comme le Go, mais les humains restent de loin supérieurs dans leur capacité à apprendre les fondamentaux d'un jeu à partir de zéro.
Les algorithmes de langage qui imitent le langage humain ont produit des résultats surprenants en générant des phrases plausibles, mais même les meilleurs algorithmes de langage ne parviennent pas à déterminer correctement à quoi se réfère le « il » dans une phrase.
La comparaison entre l'état actuel de l'intelligence artificielle et les « bactéries » est également originale et pertinente.
Sumpter, conscient que l'IA est encore loin d'accomplir des tâches de niveau humain, soulève la question intrigante de savoir si l'IA pourrait éventuellement rivaliser avec d'autres organismes vivants.
En comparant les capacités cognitives de divers êtres vivants, tels que les chiens, les abeilles, C. elegans et les micro-organismes, avec celles de l'intelligence artificielle, la conclusion, quelque peu choquante, est que même à son plus haut niveau de performance, l'intelligence artificielle n'atteint que le niveau de bactéries comme E. coli.
Tout comme les bactéries adoptent des comportements adaptés à leur environnement pour des raisons telles que l'acquisition de ressources et la reproduction, l'intelligence artificielle a également la capacité de s'adapter aux situations en répondant à divers signaux d'entrée.
Mais les capacités de l'intelligence artificielle s'arrêtent là.
L'IA ne peut pas comprendre et réagir au contexte humain comme un chien, jouer au football comme une abeille (sérieusement !), ni interagir socialement comme un ver C. elegans.
Après une analyse objective de l'état du développement de l'intelligence artificielle, Sumpter est parvenu à la conclusion suivante :
« La vérité qui se cache derrière les algorithmes actuels est non seulement plus banale, mais aussi beaucoup plus simple que ne le suggère le terme « intelligence artificielle ». »
« Maintenant, je sais que l’algorithme n’est pas tel que je le pensais auparavant. »
« Je sais que ce n’est pas effrayant. »
Ce que nous pouvons conclure de cette révélation d'un mathématicien appliqué de renommée mondiale se situe quelque part entre le discours incessant des géants de la tech et les théories du complot pessimistes, souvent présentes, qui nous étouffent de peur.
Selon Sumpter, le débat sur les géants de la tech devrait commencer par ce juste milieu : un examen nuancé et rationnel des arguments complexes sans les écraser.
Nous avons maintenant plusieurs choix devant nous.
Célébrez-vous sans réserve l'utopie des géants de la tech, alimentée par le battage médiatique, ou êtes-vous simplement pessimiste face à la dystopie algorithmique exagérée par les médias ? Ou bien cultivez-vous une perspective qui vous permette de mieux comprendre les scénarios futurs en observant calmement et froidement l'écart entre la domination optimiste et pessimiste des algorithmes ?
Le choix nous appartient entièrement.
SPÉCIFICATIONS DES PRODUITS
- Date de publication : 28 février 2022
- Nombre de pages, poids, dimensions : 400 pages | 522 g | 145 × 210 × 30 mm
- ISBN13 : 9791164051557
- ISBN10 : 1164051555
Vous aimerez peut-être aussi
카테고리
Langue coréenne
Langue coréenne