Guillotine fondée sur l’intelligence : notre vie ou notre carrière ?

09:5025/03/2026, mercredi
MAJ: 25/03/2026, mercredi
Ersin Çelik

Nous avons vu comment des dispositifs technologiques pouvaient être transformés en armes de destruction massive en septembre 2024 au Liban, lorsque des pagers utilisés pour communiquer par des centaines de personnes , dont des membres du Hezbollah, ont explosé simultanément. Neuf personnes ont perdu la vie et plus de 3 000 ont été blessées, dont 200 grièvement. Le suspect habituel de cette attaque était bien sûr Israël. Avant même leur distribution, au stade de la chaîne d’approvisionnement, de

Nous avons vu comment des dispositifs technologiques pouvaient être transformés en armes de destruction massive en septembre 2024 au Liban,
lorsque des pagers utilisés pour communiquer par des centaines de personnes
, dont des membres du Hezbollah, ont explosé simultanément. Neuf personnes ont perdu la vie et plus de 3 000 ont été blessées, dont 200 grièvement. Le suspect habituel de cette attaque était bien sûr Israël. Avant même leur distribution, au stade de la chaîne d’approvisionnement, de très petits dispositifs explosifs avaient été placés à l’intérieur des appareils. Ceux-ci ont ensuite été transformés en munitions mortelles via un signal envoyé à distance.

Après ces attaques qui ont choqué le monde, la crainte que les téléphones portables puissent eux aussi être transformés en explosifs similaires s’est immédiatement répandue. Même si des experts affirment que cela est techniquement possible,
la nécessité d’intervenir physiquement sur les chaînes de production de grandes marques comme Apple ou Samsung rend cette hypothèse difficile.
Mais la réalité la plus amère est ailleurs : il n’est désormais plus nécessaire de transformer les téléphones en bombes physiques.

La guerre devenue algorithmique


Dans le cadre du processus génocidaire mené par Israël à Gaza et lors des opérations d’assassinats dans la région, il est désormais établi que les entreprises de réseaux sociaux et les plateformes d’intelligence artificielle sont utilisées comme des
"balles à guidage numérique"
. Le fait que des personnes ciblées soient frappées chez elles, sur leur canapé, grâce au
"renseignement de signal"
émis par leur téléphone, par des missiles guidés, n’est plus un secret.

Plus terrifiant encore, la dernière guerre avec l’Iran a révélé la transformation d’entreprises d’intelligence artificielle basées aux États-Unis en véritables
"appareils de massacre"
. Depuis plusieurs jours, il est évoqué que le modèle
"Claude"
de la société Anthropic a joué un rôle déterminant dans les attaques menées par les États-Unis et Israël. Cet
"assistant habile",
utilisé par des millions de personnes pour écrire des histoires ou développer des scénarios, comme sur Gemini ou ChatGPT, a plongé son algorithme dans la violence en participant à l’identification des cibles, à leur évaluation et aux simulations en Iran.

Par exemple, le 28 février, au début de la guerre, une école de filles dans la ville de Minab, où 160 enfants ont été tués, a été frappée par deux missiles à 40 minutes d’intervalle. Cette attaque a été rendue possible grâce à l’analyse par Claude de données issues d’images satellites, de rapports de terrain et de renseignement de signal, fournies au Pentagone.
Même si la décision du massacre a été prise par des
"commandants humains"
, ce sont les coordonnées de ces enfants innocents qui ont été déterminées par les "assistants" que nous portons dans nos poches.

Une technologie devenue outil d’exécution


Depuis des mois, l’opinion publique mondiale débat de savoir si l’intelligence artificielle va nous prendre nos emplois. Pourtant, les faits montrent que l’intelligence artificielle a cessé de se limiter à la compétition professionnelle pour devenir une
"guillotine fondée sur l’intelligence"
qui inscrit directement des êtres humains sur des listes de cibles.

Les
"algorithmes éthiques"
dont la Silicon Valley se vante tant ne sont activés que pour écrire des poèmes. La réalité tragique est que ces technologies sont en réalité des outils d’exécution.
Le "poète en nous" capable de pleurer ces enfants a déjà disparu.

Qui sera le prochain pays, le prochain dirigeant, la prochaine école ou la prochaine installation militaire visée dépendra des politiques d’occupation des dirigeants qui auront pris le contrôle de la puissance de ces plateformes d’intelligence artificielle.

Car la vérité qui devrait terrifier le reste du monde se cache dans les lignes des accords conclus entre ces entreprises et le Pentagone.


Lorsque les collaborations militaires
d’Anthropic et d’OpenAI (ChatGPT)
ont été révélées, ces entreprises ont tenté de limiter la colère et les appels au boycott en définissant leurs
"lignes rouges"
. Elles ont garanti qu’elles excluraient uniquement les citoyens américains de la surveillance de masse. La traduction de cette manœuvre commerciale est claire :

Tout civil en dehors des frontières américaines constitue une base de données légitime pour nos algorithmes. Vous pouvez les cibler si vous le souhaitez.

En d’autres termes, nous faisons face à un problème bien plus vital que la perte de nos emplois à cause de l’intelligence artificielle :
la question est désormais de savoir si elle nous laissera en vie.
#Pentagone
#Anthropic
#ChatGPT
#Minab
#Gaza