Israël a toujours été à l’avant-garde de l’innovation militaire et ce dernières années, il s’est fortement appuyé sur les technologies de l’IA pour renforcer sa sécurité.
Des systèmes de surveillance alimentés par l’apprentissage automatique aux drones autonomes capables d’identifier et d’éliminer des cibles, la nation repousse les limites des capacités de défense.
Mais un grand pouvoir implique de grandes responsabilités, en particulier dans la guerre et il se pose la question de savoir si la guerre « autonome » est un gage d’efficacité ou un risque de danger éthique.
Les armes autonomes sont réputées pour leur rapidité et leur précision. Elles ne se fatiguent pas, ne paniquent pas et peuvent traiter d’énormes quantités de données pour prendre des décisions calculées sur le champ de bataille. Mais voici le hic : qui est responsable lorsqu’un système d’IA commet une erreur ?
Si un drone identifie à tort un civil comme une cible hostile, qui en est tenu responsable ? C’est ce manque de responsabilité claire qui rend l’IA dans la guerre ambiguë sur le plan éthique.
Si les humains programment l’IA, celle-ci prend des décisions en temps réel, souvent sans surveillance humaine et toutes sortes de problématiques se posent :
- La déshumanisation de la guerre : la perte du contrôle humain ?
- Responsabilité et obligation de rendre des comptes : une zone grise
- Les préjugés dans l’IA : une bombe à retardement éthique
- La pression pour des lignes directrices éthiques
- Perception et confiance du public
- Le rôle de l’IA dans le maintien de la paix
- La dignité humaine et le rôle de l’IA dans les combats
- Le potentiel d’utilisation abusive de l’IA par des acteurs non étatiques
- Les risques de la surveillance renforcée par l’IA …
Étant donné le rythme rapide de l’intégration de l’IA dans les opérations militaires, il est urgent de disposer de lignes directrices éthiques claires et nombreux sont ceux qui pensent que les lois et réglementations internationales doivent être mises à jour pour tenir compte de la nouvelle réalité de la guerre autonome.
Cela implique de définir qui est responsable des décisions prises par l’IA et de veiller à ce que les systèmes soient construits de manière transparente et responsable.
Israël, comme d’autres puissances mondiales, est confronté au défi d’équilibrer ses besoins de sécurité avec la responsabilité de respecter les normes éthiques et compte tenu de sa position de leader dans le développement de l’IA militaire, a un rôle unique à jouer dans la définition de l’avenir de la guerre autonome.
Les forces de défense, les entreprises technologiques et les décideurs politiques du pays sont à l’avant-garde de ce paysage en évolution.
Par conséquent, Israël a l’opportunité – et peut-être l’obligation – de donner l’exemple en matière d’utilisation responsable de l’IA dans les conflits. Cela pourrait impliquer la création de cadres éthiques, la promotion de la coopération internationale et la garantie que les technologies d’IA sont utilisées d’une manière qui respecte les droits de l’homme tout en préservant la sécurité nationale.
Étant donné le leadership d’Israël en matière d’IA et d’innovation militaire, son utilisation de systèmes autonomes pourrait servir de terrain d’essai pour la manière dont le reste du monde aborde ces technologies.
Les choix éthiques faits dans la stratégie de défense israélienne peuvent influencer les normes mondiales, en particulier lorsque d’autres nations adoptent des systèmes d’IA similaires.
L’utilisation de l’IA dans la défense israélienne présente une épée à double tranchant.
D’un côté, l’IA offre des capacités militaires sans équivalent, permettant une sécurité et une défense plus efficaces dans une région en proie à des conflits. De l’autre, elle introduit une multitude de dilemmes éthiques qui remettent en cause notre conception traditionnelle de la guerre, de la responsabilité et de l’humanité.
Alors que l’IA continue de jouer un rôle croissant dans la défense, il est clair que les questions éthiques ne feront que devenir plus complexes.
Israël – et le reste du monde – doivent s’attaquer de front à ces défis, en veillant à ce que l’IA soit développée et déployée d’une manière qui respecte à la fois les possibilités technologiques et les responsabilités morales de la guerre, mais aussi la façon dont la guerre elle-même évolue à l’échelle mondiale.
Source : AI Competence (traduction et résumé par Israël Valley)