Pour que l’IA puisse dévoiler tout son potentiel, il est essentiel d’établir des mesures restrictives et des garanties adéquates afin d’en prévenir les utilisations malveillantes
L’Intelligence Artificielle est une technologie révolutionnaire présentant un impact considérable sur la vie quotidienne et un potentiel énorme, mais doit toutefois être encadrée voire règlementée afin de garantir un usage et un développement éthique et responsable.
2023 en voie d’être vue comme « l’année de l’IA »
L’IA a déjà dévoilé son potentiel et pourrait révolutionner de nombreux domaines tels que les soins de santé, la finance, les transports et bien d’autres encore. Grâce à ses capacités d’automatisation, l’Intelligence Artificielle peut prendre en charge des tâches fastidieuses avec plus d’efficacité et restituer des informations jusque-là inaccessibles. L’IA pourrait également aider à résoudre des problèmes complexes pour l’homme et l’aider dans sa prise de décision lors de missions dangereuses comme voler dans l’espace ou explorer les océans. A l’inverse, l’usage des technologies à base d’IA peut aussi être détourné comme pour celui du développement de nouvelles cyber-menaces.
Ces situations ont déjà été largement relayées dans les médias où l’utilisation, par exemple, de ChatGPT permet de créer des logiciels malveillants.
En somme, les progrès de l’IA ne sont pas un simple engouement passager et l’on n’en mesure pas encore l’impact qu’il soit positif ou négatif sur nos sociétés. Bien que n’étant pas nouvelle, cette technologie témoigne de progrès spectaculaires et marque l’esprit du grand public. L’année 2023 est en voie d’être vue comme « l’année de l’IA ».
Les risques de L’IA générale (AGI – Artificial General Intelligence)
Cependant, il est important de ne pas considérer cette technologie comme une solution miracle à toutes les problématiques rencontrées.
On entend souvent dire que l’IA frôlera, voire dépassera, les capacités humaines. Contrairement aux prédictions d’évolutions, les domaines d’application ne manquent pas.
L’IA actuelle est qualifiée d’IA étroite ou « faible » (ANI – Artificial Narrow Intelligence). L’IA générale (AGI – Artificial General Intelligence) devrait fonctionner comme le cerveau humain, penser, apprendre et réaliser des tâches de la même manière qu’un être humain. La dernière catégorie est celle de la super-intelligence artificielle (ASI) : il s’agit essentiellement de machines plus intelligentes que nous.
Si l’intelligence artificielle atteignait le niveau de l’AGI, elle pourrait présenter une menace pour l’humanité car autonome. Il sera probablement nécessaire de suivre et encadrer cette technologie afin qu’elle serve nos valeurs et nos objectifs humains en conformité avec les règlementations.
Etablir des principes éthiques, transparence et responsabilité dans le développement de l’IA
Pour limiter les risques associés à l’IA avancée, il est important que les gouvernements, les entreprises et les régulateurs travaillent ensemble pour développer des mécanismes de sécurité solides, établir des principes éthiques et promouvoir la transparence et la responsabilité dans le développement de l’IA.
À l’heure actuelle, les règles et réglementations sont extrêmement limitées. Il existe des propositions telles que l’Artificial Intelligence Act, mais aucune d’entre elles n’a été adoptée et, pour l’essentiel, tout ce qui a été fait jusqu’à présent est régi par les principes éthiques des utilisateurs et des développeurs. Les entreprises qui développent et diffusent des systèmes d’IA devraient, selon le type d’IA, garantir au moins des normes minimales en matière de respect de la vie privée, d’équité, d’explicabilité ou d’accessibilité.
l’IA et la cybercriminalité
Malheureusement, il arrive aussi que l’IA soit utilisée par les cybercriminels avec des objectifs multiples comme identifier automatiquement les vulnérabilités, créer des campagnes d’hameçonnages ciblées, faire de l’ingénierie sociale, créer des malwares avancés capables de modifier leur structure, déjouer les systèmes de détection, perfectionner leurs types d’attaque et extorquer de l’argent. L’IA peut également être utilisée pour générer des deepfakes, audio et vidéo, cela à des fins de manipulation sociale industrielle ou politique.
A l’inverse, cette technologie contribue également de manière importante à la lutte contre les cyber-attaques. À titre d’exemple, des outils existent pour analyser ces menaces afin de s’en protéger efficacement. Ces technologies sont utiles car elles permettent d’en analyser les comportements ainsi que les grandes quantités de données provenant de diverses sources y compris du darknet. Elles permettent in fine une meilleure détection contre les vulnérabilités de type « zero‑day » et l’application de correctifs de manière automatisée.
Récemment, diverses interdictions et restrictions de l’IA ont été évoquées. Dans le cas de ChatGPT, c’est surtout la protection de la vie privée qui suscite certaines inquiétudes car des fuites de données ont déjà été constatées. Quoi qu’il en soit, bloquer des services similaires n’a qu’un effet limité, car tout utilisateur un tant soit peu averti peut contourner l’interdiction en passant par un VPN par exemple. De plus, le commerce de comptes premium volés est très actif. Le problème est que la plupart des utilisateurs ne se rendent pas compte que les informations sensibles saisies dans ChatGPT seraient très précieuses si elles venaient à être divulguées, et qu’elles pourraient être utilisées à des fins de marketing ciblé. Il s’agit ici d’une manipulation sociale potentielle sans précédent.
L’impact de l’IA sur notre société dépendra de la manière dont nous choisirons de mettre au point et d’utiliser cette technologie. Il est important de réfléchir à ses avantages et aux risques potentiels, tout en veillant à ce qu’elle évolue dans un esprit éthique et responsable et qu’elle soit utile à la société.
credit DepositphotosIntelligence Artificielle : garanties DepositphotosIgorVetushko