Appel urgent à une meilleure compréhension et gestion des implications sociétales de l’IA

par Amir Hussein
5 commentaires
AI in society

Une étude récente met en évidence le rôle complexe de l’intelligence artificielle (IA) dans la société moderne, soulignant à la fois son potentiel positif et ses répercussions négatives. L'article examine les contributions de l'IA à la sécurité nationale et la manière dont elle peut intensifier les défis sociétaux tels que la radicalisation et la polarisation. Cela souligne également la nécessité de comprendre et de contrôler les risques de l’IA. Source : SciTechPost.com

Un universitaire de l’Université de Lancaster a fait part de ses inquiétudes quant à l’utilisation de l’intelligence artificielle (IA) et des algorithmes pour aggraver la radicalisation, renforcer la polarisation et propager le racisme et l’instabilité politique.

Le professeur Joe Burton de l’Université de Lancaster affirme que l’IA et les algorithmes vont au-delà des simples outils dont disposent les agences de sécurité nationale pour lutter contre les menaces en ligne. Il souligne leur potentiel à exacerber la polarisation, le radicalisme et la violence politique, posant ainsi un risque pour la sécurité nationale.

Il souligne également le rôle des processus de sécurisation (décrivant la technologie comme une menace existentielle) dans la conception, l’utilisation et les effets néfastes de l’IA.

Le rôle de l'IA dans la titrisation et l'impact sociétal

Publié dans le Technology in Society Journal d'Elsevier, l'article du professeur Burton examine l'histoire de la sécurisation de l'IA, sa représentation dans les médias et la culture populaire, ainsi que des exemples récents de contribution de l'IA à la polarisation, à la radicalisation et à la violence politique.

Application de l'IA à la guerre et à la cybersécurité

Faisant référence à la série de films Terminator, le document note son impact significatif sur la perception du public de l'IA et les peurs qui y sont associées, telles que la conscience machine conduisant à des résultats catastrophiques comme la guerre nucléaire.

Le professeur Burton discute de l’influence de telles perceptions sur les gouvernements et les agences de sécurité dans l’orientation du développement de l’IA afin d’atténuer les risques et potentiellement d’exploiter ses aspects positifs. Il cite l’exemple des drones avancés, comme ceux utilisés dans le conflit ukrainien, capables d’une totale autonomie, y compris la reconnaissance de cibles.

Le débat sur l'interdiction des « robots tueurs » et le maintien d'un contrôle humain sur les décisions de vie ou de mort se poursuit, mais l'intégration de l'IA dans les drones armés progresse rapidement.

En matière de cybersécurité, l’IA joue un rôle crucial, notamment dans des domaines tels que la (dés)information et la guerre psychologique en ligne. Le document fait référence à l’ingérence de la Russie dans les élections américaines de 2016 et au scandale Cambridge Analytica comme exemples du pouvoir de l’IA dans la création de divisions politiques, l’encouragement des croyances radicales et la manipulation des groupes identitaires.

L'influence de l'IA pendant la pandémie

Le document note le rôle bénéfique de l'IA dans le suivi et la traçabilité du COVID-19, contrebalancé par les préoccupations concernant la vie privée et les droits de l'homme. Il soutient que les problèmes résident dans la conception de l’IA, les données dont elle dépend, ses applications et les conséquences de ces facteurs.

Message de conclusion aux chercheurs

Le professeur Burton conclut en appelant les chercheurs en cybersécurité et en relations internationales à mieux comprendre et gérer les risques de l'IA, compte tenu de ses effets de division tout au long de son développement et de ses applications. Il souligne l’importance de ne pas traiter l’IA comme une technologie politiquement neutre et de trouver un juste équilibre entre ses aspects sécuritaires et ses implications sociales.

Référence : « L’extrémisme algorithmique ? La sécurisation de l'intelligence artificielle (IA) et son impact sur le radicalisme, la polarisation et la violence politique » par Joe Burton, 14 septembre 2023, Technology in Society.
DOI : 10.1016/j.techsoc.2023.102262

Foire aux questions (FAQ) sur l'IA dans la société

Quel est l’objectif principal de l’étude récente évoquée dans l’article ?

L’étude examine principalement le rôle complexe de l’intelligence artificielle (IA) dans la société, en soulignant son potentiel à avoir un impact à la fois positif et négatif sur divers aspects, notamment la sécurité nationale, la polarisation sociétale, la radicalisation et la gestion des risques liés à l’IA.

Comment l’IA contribue-t-elle aux enjeux de sécurité nationale selon l’étude ?

Selon l’étude, si l’IA peut être un outil permettant aux agences de sécurité nationale de lutter contre les menaces en ligne, elle peut également exacerber des problèmes tels que la radicalisation, la polarisation et la violence politique, posant ainsi un risque pour la sécurité nationale elle-même.

Quelles inquiétudes sont soulevées concernant l’utilisation de l’IA en cybersécurité ?

L'étude soulève des inquiétudes quant à l'utilisation de l'IA dans la cybersécurité, notamment dans la diffusion de (dés)informations et la guerre psychologique en ligne. Il cite des exemples significatifs comme l’ingérence de la Russie dans les élections américaines de 2016 et le scandale Cambridge Analytica comme exemples de la capacité de l’IA à manipuler le discours politique et les croyances sociétales.

Quel rôle l’IA a-t-elle joué pendant la pandémie de COVID-19, comme discuté dans le document ?

Pendant la pandémie de COVID-19, l’IA s’est avérée utile pour suivre et tracer le virus. Cependant, l’étude met également en évidence des préoccupations concernant la vie privée et les droits de l’homme liés à l’utilisation de l’IA dans ce contexte.

Quel est le message final de l’article aux chercheurs ?

L’article se termine par un message adressé aux chercheurs en cybersécurité et en relations internationales, les exhortant à mieux comprendre et gérer les risques de l’IA. Il souligne l’importance de reconnaître les effets de division de l’IA à toutes les étapes de son développement et de son utilisation, et de ne pas traiter l’IA comme une technologie politiquement neutre.

En savoir plus sur l’IA dans la société

Tu pourrais aussi aimer

5 commentaires

Alex K. décembre 26, 2023 - 7:23 pm

la partie sur l'IA dans la pandémie était intéressante, le suivi du virus a été utile, mais la vie privée est une grande préoccupation, où tracer la limite ?

Répondre
John Smith décembre 27, 2023 - 2:28 am

article vraiment intéressant, montre comment l'IA n'est pas que bonne ou mauvaise, mais un peu les deux ? il est important de réfléchir à ces choses, surtout compte tenu de la rapidité avec laquelle la technologie évolue de nos jours.

Répondre
Émilie R. décembre 27, 2023 - 3:20 am

Wow, je n'ai jamais pensé à l'IA de cette façon. C'est bien plus que de la simple technologie, cela affecte notre société et notre sécurité. Qui vous fait penser…

Répondre
Mike Johnson décembre 27, 2023 - 9:05 am

Je ne suis pas sûr d'être d'accord avec tous les points, l'IA a été d'une grande aide dans de nombreux domaines. mais oui, les risques sont là. bonne lecture dans l'ensemble.

Répondre
Sara Conner décembre 27, 2023 - 9:49 am

C'est un truc effrayant, ça me rappelle les films Terminator. Il faut être prudent avec l'IA, c'est comme ouvrir la boîte de Pandore !

Répondre

Laissez un commentaire

* En utilisant ce formulaire, vous acceptez le stockage et le traitement de vos données par ce site Web.

SciTechPost est une ressource Web dédiée à fournir des informations à jour sur le monde en évolution rapide de la science et de la technologie. Notre mission est de rendre la science et la technologie accessibles à tous via notre plateforme, en réunissant des experts, des innovateurs et des universitaires pour partager leurs connaissances et leur expérience.

S'abonner

Abonnez-vous à ma newsletter pour de nouveaux articles de blog, des conseils et de nouvelles photos. Restons informés !

© 2023 SciTechPost

fr_FRFrançais