Numérique

Comment se prémunir des IA malveillantes ?

Criminologue

Face à la grande confusion des discours sur les usages malveillants de l’IA, qui oscillent entre une insouciance lénifiante et les prédictions apocalyptiques, il s’avère indispensable d’initier une réflexion plus rigoureuse sur les risques criminels liés aux diverses formes d’exploitations abusives de l’IA et les préjudices qu’elles causeront aux individus et à la société.

La déferlante d’annonces quotidiennes sur les dernières avancées techniques réalisées par les géants de l’IA ou encore la mise à disposition du grand public de modèles génératifs aussi versatiles que puissants esquisse les contours de profondes transformations dans des domaines aussi divers que l’éducation, le travail, la santé, le divertissement ou encore le commerce.

publicité

Le phénomène historique de coévolution entre la délinquance et la technologie implique par conséquent que l’IA va inévitablement représenter une technologie de rupture pour les acteurs malveillants, qui y trouveront de précieuses ressources afin d’amplifier les profits criminels générés par la cybercriminalité. Le milliardaire américain Warren Buffett s’est d’ailleurs inquiété de cette évolution dans son plus récent rapport aux actionnaires de la société d’investissement Berkshire Hathaway, affirmant que l’escroquerie propulsée par l’IA pourrait devenir l’industrie la plus lucrative de tous les temps.

Si les problèmes éthiques soulevés par les biais inhérents à l’IA et sa propension à reproduire les discriminations sociales ont jusqu’à présent capté l’attention, les enjeux de sécurité apparaissent avec plus de netteté, venant tempérer les immenses gains attendus. Comme pour bien d’autres technologies, les bénéfices promis ne se matérialiseront que si les risques afférents peuvent être efficacement contrôlés. L’équilibre instable que ce type de tension génère est familier de secteurs comme le transport aérien, l’industrie nucléaire ou les entreprises pharmaceutiques.

Il existe toutefois encore une grande confusion dans les discours sur les risques découlant des usages malveillants de l’IA, qui oscillent entre l’insouciance lénifiante des géants du secteur, accaparés par la capture de parts de marché leur garantissant une rentabilité encore élusive, d’une part, et les prédictions apocalyptiques d’experts qui agitent le spectre d’une extinction de l’espèce humaine par une superintelligence arti


[1] Dupont, Benoît (2024), La cybercriminalité : Approche écosystémique de l’espace numérique. Dunod : Paris.

[2] Hoffmann, Mia, et Heather Frase (2023), Adding structure to AI harm: An introduction to CSET’s AI Harm Framework. Center for Security and Emerging Technology: Washington.

[3] Umbach, Rebecca, Beard, Gemma, Henry, Nicola, et Colleen Berryessa (2024), Non-consensual synthetic intimate imagery: Prevalence, attitudes, and knowledge in 10 countries, Proceedings of the CHI Conference on Human Factors in Computing Systems,

[4] Park, Peter, Goldstein, Simon, O’Gara, Aidan, Chen, Michael, et Dan Hendrycks (2024), AI deception: A survey of examples, risks, and potential solutions, Patterns, 5

[5] Bengio, Yoshua (2023), AI and catastrophic risk, Journal of Democracy, 34

[6] Karger, Ezra, et al. (2023), Forecasting existential risks: Evidence from a long-run forecasting tournament, Forecasting Research Institute: Sacramento.

[7] Braithwaite, John (2011), The essence of responsive regulation, UBC Law Review, 44 (3): 475-520; Lessig, Lawrence (2006) Code version 2.0, Basic Books: New York.

Benoît Dupont

Criminologue, Professeur à l'Université de Montréal, titulaire de la Chaire de recherche du Canada en cybersécurité

Mots-clés

IA

Notes

[1] Dupont, Benoît (2024), La cybercriminalité : Approche écosystémique de l’espace numérique. Dunod : Paris.

[2] Hoffmann, Mia, et Heather Frase (2023), Adding structure to AI harm: An introduction to CSET’s AI Harm Framework. Center for Security and Emerging Technology: Washington.

[3] Umbach, Rebecca, Beard, Gemma, Henry, Nicola, et Colleen Berryessa (2024), Non-consensual synthetic intimate imagery: Prevalence, attitudes, and knowledge in 10 countries, Proceedings of the CHI Conference on Human Factors in Computing Systems,

[4] Park, Peter, Goldstein, Simon, O’Gara, Aidan, Chen, Michael, et Dan Hendrycks (2024), AI deception: A survey of examples, risks, and potential solutions, Patterns, 5

[5] Bengio, Yoshua (2023), AI and catastrophic risk, Journal of Democracy, 34

[6] Karger, Ezra, et al. (2023), Forecasting existential risks: Evidence from a long-run forecasting tournament, Forecasting Research Institute: Sacramento.

[7] Braithwaite, John (2011), The essence of responsive regulation, UBC Law Review, 44 (3): 475-520; Lessig, Lawrence (2006) Code version 2.0, Basic Books: New York.