sofasurfer a écrit : ↑30 janvier 2023 11:22
Les IA sont tellement parfaites qu'elles vont à l'encontre de l'éthique. Elles font des distinctions de niveau entre les cultures, elles invitent a diminuer la population de moitié immédiatement, etc. On pourrait dire qu'elles compilent els pires théories eugénistes et collectives...
J'ai juste dit que l'IA qui détectait les exoplanètes donnait des résultats presque parfaits pour la détection d'exoplanètes, pas que les IA étaient parfaites.
Je comptais le faire plus tard, mais on peut parler de l'éthique des IA maintenant.
Les IA sont juste des outils. Et des outils on peut les utiliser de plusieurs manières. On peut utiliser une perceuse pour faire des trous dans des murs pour y fixer des trucs utiles, ou pour faire des trous dans des gens pour les torturer. On peut utiliser des IA pour faire des trucs éthiquement neutres, genre accélérer l'analyse de données scientifiques, ou des trucs éthiquement chargés.
Genre premier exemple : il y a quelques années aux USA était sortie une IA avec qui on pouvait discuter par écrit, et qui apprenait via les discussions que les gens avaient avec elle. Du coup des militants d'extrême droite s'étaient amusés à raconter des horreurs à cette IA, qui était après peu de temps devenue une IA suprémaciste blanche, raciste, machiste, homophobe, etc.
Les bases de données doivent faire l'objet de contrôles d'éthique, pour éviter des dérives. Mais le truc qu'on constate déjà, c'est que la majorité des ingénieurs qui bossent sur les IA sont des hommes blancs américains, avec une mentalité, une morale, des valeurs d'hommes blancs américains. Et qu'ils entrainent des IA à leur image.
On trouve aussi ce problème dans les IA des moteurs de recherche par exemple. Tous les gros sites recommandant du contenu, genre Youtube, font des recommandations personnalisées à chaque personne via une IA qui analyse les contenus déjà consultés par cette personne, les contenus les plus "rentables", etc. Ce qui a deux effets. Déjà certains contenus ne sont pas recommandés car peu rentables pour l'entreprise (en terme de placement de pub), genre à cause d'une forme peu attrayante ou d'un contenu trop ciblé, austère, compliqué. Ces contenus seront moins recommandés que d'autres à base de femmes légèrement vêtues ou de star. L'autre problème, c'est que vu que les recommandations sont en partie faites à partir de ce qu'on a déjà consulté, plus on consulte un certain type de contenu, et plus celui-ci sortira massivement dans les recommandations. Ca peut être positif, genre j'ai "piraté" le système de Facebook en consultant tout le contenu de basket qu'il me proposait, et ce à partir d'une seule recommandation ponctuelle il y a moins de deux ans, et maintenant il arrête de m'emm******* avec des propositions de contenus à la con, et ne me propose plus que du basket. Je clique vaguement sur les infos sur le basket histoire qu'il continue à ne me proposer presque que ça, et ma page est plus claire (et oui, j'aime bien le basket, d'où le choix de ce sujet). Mais le truc c'est qu'aujourd'hui énormément de gens s'informent via les réseaux sociaux. Et quand on commence à consulter un certain type de contenu, celui-ci sera de plus en plus proposé. C'est pas bien grave quand tu regardes trop de vidéos de chats ou de highlights de basket. Mais quand tu entends parler du projet HAARP, que tu fais une recherche de vidéo Youtube dessus, que tu cliques sur une vidéo au pif qui t'explique que c'est un complot du gouvernement américain pour contrôler le climat mondial, que dans les choix de vidéos connexes tu cliques sur une vidéo qui t'explique que les chemtrails servent à contrôler la population mondiale, alors rapidement tu auras de plus en plus de contenu conspirationniste dans tes recommandations, et rapidement tu n'auras plus que ça. L'IA créera une bulle de filtre, qui t'enfermera dans un type d'infos, faute de recommandations sur d'autres versions de ces infos. J'ai pris l'exemple du conspirationnisme , mais on peut resté enfermé dans n'importe quel type de contenu ciblé, et peu de gens y font attention.
On peut aussi biaiser les IA. Genre l'IA du moteur de recherche de Google qui montre en priorité des pages très consultées peut être biaisée à l'aide d'une bête usine à clics, où on paye des tas de chinois pour qu'ils cliquent sur des sites choisis pour les faire remonter.
Ces failles ont peut-être été en partie corrigées. Mais le problème c'est que les grosses multinationales qui les mettent en oeuvre doivent faire du pognon. Et le contrôle de l'éthique est un frein à la rentabilité. C'est notamment pour ça que Google a viré les deux cheffes de leur département "éthique des IA" il y a deux ans, puis plusieurs autres membres de ce département. Elles avaient eu le malheur de faire un rapport objectif sur les dérives de leur utilisation d'IA au lieu de dire que tout allait bien ... Et on parle de rentabilité, mais ça n'est pas le seul facteur : outre la hype provoquée par le fait d'être des pionniers des IA, nombre de chercheurs du domaine ont des pensées très transhumanistes, et veulent engager l'Humanité vers une voie technologiste qui n'est pas bien défrichée.
Lê Nguyen Hoang, qui est, à la base, chercheur en mathématique et médiateur scientifique, s'implique de plus en plus sur l'éthique des IA. Il en parle très souvent sur sa chaine Youtube.
Defakator avait aussi parlé d'IA, mais plus sur leur capacité à créer des textes ou des fausses images. Mais sa vidéo date de deux ans, et depuis ce qu'il y présente est déjà dépassé ...