
IA et droits de l'homme
Description
Introduction au livre
Nous explorons les violations potentielles des droits de l'homme que la technologie de l'intelligence artificielle pourrait engendrer et étudions des solutions sous différents angles.
Cela nous rappelle une fois de plus que le progrès technologique ne doit jamais compromettre la dignité humaine.
Encyclopédie de l'intelligence artificielle.
Vous trouverez les connaissances en intelligence artificielle dont vous avez besoin sur aiseries.oopy.io.
Cela nous rappelle une fois de plus que le progrès technologique ne doit jamais compromettre la dignité humaine.
Encyclopédie de l'intelligence artificielle.
Vous trouverez les connaissances en intelligence artificielle dont vous avez besoin sur aiseries.oopy.io.
- Vous pouvez consulter un aperçu du contenu du livre.
Aperçu
indice
La rencontre entre l'IA et les droits de l'homme
01 Les droits de l'homme à l'ère de l'IA
02 Intelligence artificielle et droits fondamentaux : dignité humaine et droit à l’égalité
03 IA et droits civiques : autodétermination de l’information, droit d’auteur
04 IA et droits des femmes
05 IA et droits des travailleurs
06 L’IA et les droits des personnes handicapées
07 Éthique de l'IA vs. Droit de l'IA
8 Projets internationaux en vue de normes garanties
09 Efforts nationaux pour garantir les normes
10 L'IA à l'ère des droits de l'homme
01 Les droits de l'homme à l'ère de l'IA
02 Intelligence artificielle et droits fondamentaux : dignité humaine et droit à l’égalité
03 IA et droits civiques : autodétermination de l’information, droit d’auteur
04 IA et droits des femmes
05 IA et droits des travailleurs
06 L’IA et les droits des personnes handicapées
07 Éthique de l'IA vs. Droit de l'IA
8 Projets internationaux en vue de normes garanties
09 Efforts nationaux pour garantir les normes
10 L'IA à l'ère des droits de l'homme
Dans le livre
J'ai l'impression que nous entrons dans une ère technologique complètement différente de celle où l'IA supprime les emplois humains et fait disparaître les professions libérales.
De nombreux scientifiques affirment encore qu'il reste un long chemin à parcourir avant de créer une IA dotée d'une « conscience ».
Mais malgré les bonnes nouvelles selon lesquelles la technologie de l'IA promet un avenir radieux, qu'une nouvelle révolution industrielle pour les générations futures est imminente, est-ce seulement le grand public, et en particulier les personnes socialement défavorisées et les minorités, qui ressentent un sentiment d'appréhension ?
--- Extrait de « 01_Les droits de l'homme à l'ère de l'IA »
En 2017, un organisme de santé britannique a partagé les données de 1,6 million de patients avec Google DeepMind sans leur consentement explicite. De 2013 à 2018, Cambridge Analytica a collecté les données personnelles de près de 87 millions d'utilisateurs de Facebook à leur insu et sans leur consentement, à des fins de publicité politique. Le recours à des images publiques pour alimenter les bases de données de reconnaissance faciale par intelligence artificielle est une pratique désormais bien connue.
Une technologie utilisant une base de données de 10 milliards d'images collectées sur Internet à des fins de maintien de l'ordre a été jugée contraire aux lois sur la protection de la vie privée dans plusieurs pays, dont l'Australie, le Canada, la France et le Royaume-Uni.
--- Extrait de « 03_IA et droits civiques : droit à l’autodétermination de l’information, droit d’auteur »
Des chercheurs du département des sciences et technologies de l'information (IST) de l'université d'État de Pennsylvanie ont annoncé en décembre 2023 que les services de médias sociaux pourraient avoir un impact négatif sur les biais de l'IA à l'encontre des personnes handicapées.
Les chercheurs ont démontré que non seulement les préjugés intentionnels, mais aussi les stéréotypes négatifs inconscients concernant les personnes handicapées peuvent s'apprendre.
De plus, l'équipe de recherche a mené des recherches sur la façon dont les « communautés en ligne » peuvent avoir un impact négatif sur les biais des modèles d'IA de traitement automatique du langage naturel (TALN).
Par conséquent, l'IA entraînée sur les publications et les commentaires des communautés en ligne a montré un biais beaucoup plus négatif envers les personnes handicapées.
« Tous les modèles d’IA que nous avons étudiés ont classé les phrases comme négatives et nuisibles dès lors que des termes liés au handicap, tels que « aveugle », étaient inclus, sans tenir compte du contexte », a déclaré Venkit, chercheur à l’IST. « Cela révèle un biais manifeste contre les termes relatifs au handicap. »
--- Extrait de « 06_IA et les droits humains des personnes handicapées »
Dans son rapport de 2021 intitulé « Le droit à la vie privée à l’ère numérique », la Haut-Commissaire des Nations Unies aux droits de l’homme a recommandé « une diligence raisonnable systématique en matière de droits de l’homme tout au long du cycle de vie de la conception, du développement, du déploiement, de la vente, de l’achat et de l’exploitation des systèmes d’IA », soulignant « les évaluations d’impact sur les droits de l’homme » comme un élément clé de cette diligence raisonnable.
La Commission nationale des droits de l'homme de Corée a également fait part de son avis au ministre des Sciences et des TIC en mai 2024, selon lequel l'« outil d'évaluation de l'impact de l'IA sur les droits de l'homme » devrait être utilisé lors de l'élaboration et de la mise en œuvre de politiques et de plans d'affaires connexes afin de prévenir les violations des droits de l'homme et la discrimination résultant du développement et de l'utilisation de l'IA, et que cet outil devrait être diffusé afin que des évaluations autonomes de l'impact sur les droits de l'homme puissent être menées sur toutes les IA directement développées ou utilisées par les institutions publiques et sur les IA à haut risque dans le secteur privé, jusqu'à ce que l'évaluation de l'impact sur les droits de l'homme soit inscrite dans la législation.
De nombreux scientifiques affirment encore qu'il reste un long chemin à parcourir avant de créer une IA dotée d'une « conscience ».
Mais malgré les bonnes nouvelles selon lesquelles la technologie de l'IA promet un avenir radieux, qu'une nouvelle révolution industrielle pour les générations futures est imminente, est-ce seulement le grand public, et en particulier les personnes socialement défavorisées et les minorités, qui ressentent un sentiment d'appréhension ?
--- Extrait de « 01_Les droits de l'homme à l'ère de l'IA »
En 2017, un organisme de santé britannique a partagé les données de 1,6 million de patients avec Google DeepMind sans leur consentement explicite. De 2013 à 2018, Cambridge Analytica a collecté les données personnelles de près de 87 millions d'utilisateurs de Facebook à leur insu et sans leur consentement, à des fins de publicité politique. Le recours à des images publiques pour alimenter les bases de données de reconnaissance faciale par intelligence artificielle est une pratique désormais bien connue.
Une technologie utilisant une base de données de 10 milliards d'images collectées sur Internet à des fins de maintien de l'ordre a été jugée contraire aux lois sur la protection de la vie privée dans plusieurs pays, dont l'Australie, le Canada, la France et le Royaume-Uni.
--- Extrait de « 03_IA et droits civiques : droit à l’autodétermination de l’information, droit d’auteur »
Des chercheurs du département des sciences et technologies de l'information (IST) de l'université d'État de Pennsylvanie ont annoncé en décembre 2023 que les services de médias sociaux pourraient avoir un impact négatif sur les biais de l'IA à l'encontre des personnes handicapées.
Les chercheurs ont démontré que non seulement les préjugés intentionnels, mais aussi les stéréotypes négatifs inconscients concernant les personnes handicapées peuvent s'apprendre.
De plus, l'équipe de recherche a mené des recherches sur la façon dont les « communautés en ligne » peuvent avoir un impact négatif sur les biais des modèles d'IA de traitement automatique du langage naturel (TALN).
Par conséquent, l'IA entraînée sur les publications et les commentaires des communautés en ligne a montré un biais beaucoup plus négatif envers les personnes handicapées.
« Tous les modèles d’IA que nous avons étudiés ont classé les phrases comme négatives et nuisibles dès lors que des termes liés au handicap, tels que « aveugle », étaient inclus, sans tenir compte du contexte », a déclaré Venkit, chercheur à l’IST. « Cela révèle un biais manifeste contre les termes relatifs au handicap. »
--- Extrait de « 06_IA et les droits humains des personnes handicapées »
Dans son rapport de 2021 intitulé « Le droit à la vie privée à l’ère numérique », la Haut-Commissaire des Nations Unies aux droits de l’homme a recommandé « une diligence raisonnable systématique en matière de droits de l’homme tout au long du cycle de vie de la conception, du développement, du déploiement, de la vente, de l’achat et de l’exploitation des systèmes d’IA », soulignant « les évaluations d’impact sur les droits de l’homme » comme un élément clé de cette diligence raisonnable.
La Commission nationale des droits de l'homme de Corée a également fait part de son avis au ministre des Sciences et des TIC en mai 2024, selon lequel l'« outil d'évaluation de l'impact de l'IA sur les droits de l'homme » devrait être utilisé lors de l'élaboration et de la mise en œuvre de politiques et de plans d'affaires connexes afin de prévenir les violations des droits de l'homme et la discrimination résultant du développement et de l'utilisation de l'IA, et que cet outil devrait être diffusé afin que des évaluations autonomes de l'impact sur les droits de l'homme puissent être menées sur toutes les IA directement développées ou utilisées par les institutions publiques et sur les IA à haut risque dans le secteur privé, jusqu'à ce que l'évaluation de l'impact sur les droits de l'homme soit inscrite dans la législation.
--- Extrait de « 09_Efforts nationaux pour des normes garanties »
Avis de l'éditeur
Où sont les droits de l'homme à l'ère de l'IA ?
À mesure que l'intelligence artificielle s'intègre profondément dans notre vie quotidienne et dans la société, les progrès technologiques doivent être discutés en parallèle avec les normes relatives aux droits de l'homme.
Elle identifie précisément comment l'IA peut violer la dignité et les droits humains dans divers domaines, notamment le recrutement, l'éducation, la surveillance et le jugement algorithmique.
Elle analyse notamment de manière critique l'impact sur les groupes socialement vulnérables tels que les femmes, les personnes handicapées et les travailleurs, ainsi que la discrimination causée par des données biaisées.
En comparant les dernières tendances législatives à l'ONU, dans l'UE, aux États-Unis, au Royaume-Uni et en Corée du Sud, cet ouvrage présente la nécessité et la mise en œuvre d'un « contrôle technologique au service des droits ». Au-delà de l'analyse éthique de l'IA, il offre des conseils pratiques, en présentant des exemples concrets de préjudices et de réponses institutionnelles.
Faisons le premier pas vers une société où la technologie est au service des personnes, et non de la technologie elle-même.
À mesure que l'intelligence artificielle s'intègre profondément dans notre vie quotidienne et dans la société, les progrès technologiques doivent être discutés en parallèle avec les normes relatives aux droits de l'homme.
Elle identifie précisément comment l'IA peut violer la dignité et les droits humains dans divers domaines, notamment le recrutement, l'éducation, la surveillance et le jugement algorithmique.
Elle analyse notamment de manière critique l'impact sur les groupes socialement vulnérables tels que les femmes, les personnes handicapées et les travailleurs, ainsi que la discrimination causée par des données biaisées.
En comparant les dernières tendances législatives à l'ONU, dans l'UE, aux États-Unis, au Royaume-Uni et en Corée du Sud, cet ouvrage présente la nécessité et la mise en œuvre d'un « contrôle technologique au service des droits ». Au-delà de l'analyse éthique de l'IA, il offre des conseils pratiques, en présentant des exemples concrets de préjudices et de réponses institutionnelles.
Faisons le premier pas vers une société où la technologie est au service des personnes, et non de la technologie elle-même.
SPÉCIFICATIONS DES PRODUITS
- Date d'émission : 15 juillet 2025
- Nombre de pages, poids, dimensions : 145 pages | 128 × 188 × 8 mm
- ISBN13 : 9791173076893
Vous aimerez peut-être aussi
카테고리
Langue coréenne
Langue coréenne