lotus95 a écrit : ↑28 février 2023 11:23
Surement , mais il n'en reste pas moins que les Twitter files ont mis en lumière une grande masse de faux comptes , qu'ils soient représentés par des humains ou des bots ne change rien à leurs objectifs de manipuler l'opinion ; et c'est drôle de voir qu'on s'offusque des actions d'une entreprise privée alors qu'on a fermé les yeux sur ces mêmes agissements lorsqu'ils concernaient des gouvernements et oligarques mondialistes.
Regardes les grands titres pendant le covid ou depuis la guerre en Ukraine , et tu constateras comme moi que les 99% de médias détenus par l'oligarchie en France ne varient pas d'un poil dans la ligne éditoriale propagandiste et l'omerta ; mais oui, même parmi les milliardaires, il y a des visions du monde différentes ... c'est juste qu'on ne le voit pas beaucoup dans les faits.
Il n'y a pas de propagande russe ou antivax , il y a seulement des pseudo vérités imposées comme seules possibles , et des despotes qui qualifient tous les sons de cloche dissonnants sous des étiquettes qui ne veulent rien dire pour noyer le poisson ; ce n'est pas de la compétence journalistique de pratiquer l'omerta ou de censurer , c'est juste de l'abus de pouvoir et de la veulerie pour ceux qui acceptent de tromper et manipuler l'opinion.
L'influençage massif de l'opinion , qu'il soit institutionnel ou privé , ne représente qu'un seul sujet ; je ne vois pas pourquoi on ne pourrait pas qualifier de cybercriminalité le fait, pour des gouvernements via des fermes à trolls ou des journaleux vendus , de manipuler l'opinion pour parvenir à des objectifs ... les résultats sont les mêmes
Encore une fois, on est là pour parler de l'automatisation de la cybercriminalité.
Donc, dans ce contexte, on se fout que "les 99% de médias détenus par l'oligarchie en France ne varient pas d'un poil dans la ligne éditoriale propagandiste", c'est hors sujet. Juste pour y répondre viteuf, sache que dans l'actualité de ces dernières années il n'y a pas QUE du covid et de la guerre en Ukraine, mais pleeeeiiiiin d'autres sujets traités différemment suivant les différents médias et leur ligne éditoriale.
La cybercriminalité ne s'applique pas à la diffusion de fausses informations ourdies par des gouvernements via des journaleux vendus, car il n'y a pas l'aspect "cyber" là-dedans. Par contre ça s'applique à des fermes à troll gouvernementales, en effet.
Mais là le sujet n'est pas non plus les fermes à trolls. Le truc c'est qu'aujourd'hui un petit nombre de personnes peut créer et gérer, à l'aide de puissants logiciels prévus pour, des tonnes de faux compte, qui écriront et diffuseront automatiquement de la désinformation. Que ça soit utilisé par des mafieux qui vendent leurs services pour se faire du pognon ou par des gouvernements qui l'utilisent directement ces outils n'y change rien. Là on a un gros article sur une entreprise mafieuse, mais on pourrait aussi en sortir sur des pays.
Comment se prémunir à grande échelle de ces fausses informations ? Les IA d'écriture ont un style détectable. Mais si leurs créateurs savent la manière dont on les détecte, ils pourront la faire évoluer. Il faudrait scanner des millions de compte pour voir les fausses informations qu'ils relayent, et voir si leur activité ne consiste pas qu'à relayer des fausses informations, pour détecter du travail de bot. Mais des humains le font très bien aussi. Ou il suffirait de faire relayer aussi aux bots des vraies informations, ou des sujet aléatoires pour brouiller les pistes.