Kaspersky signe le pacte sur l'IA de la Commission européenne pour encourager une utilisation de l'IA réfléchie
Kaspersky signe le pacte sur l'IA de la Commission européenne pour encourager une utilisation de l'IA réfléchie - Business
Plaidant pour une utilisation sécurisée des technologies basées sur l'IA, Kaspersky signe le Pacte sur l'IA, une initiative de la Commission européenne qui vise à préparer les organisations à la mise en œuvre du règlement sur l'intelligence artificielle, le premier cadre juridique complet sur l'IA adopté par l'Union européenne. Plus largement, la signature de ce pacte reflète l'engagement de Kaspersky à promouvoir et à faciliter une utilisation raisonnée et avisée de l'IA, soulignant l'importance, pour les acteurs de la cybersécurité, de se positionner sur ces questions.
Le règlement sur l'intelligence artificielle de l'Union Européenne vise à garantir que les systèmes d'IA sont dignes de confiance dans la région européenne et au-delà, en veillant à ce que ces technologies respectent des principes de sécurité et d'éthique, et en s'attaquant aux risques associés à l'IA. Promulguée en 2024, la loi sur l'IA devrait devenir pleinement applicable* à la mi-2026. Le pacte sur l'IA vise à faciliter la transition vers cette nouvelle réglementation en invitant les organisations à travailler de manière proactive à la mise en œuvre des principales dispositions de la loi.
En signant le pacte, Kaspersky a pris trois engagements fondamentaux relatifs à l'utilisation de la technologie de l'IA, à savoir :
• L'adoption d'une stratégie de gouvernance de l'IA pour favoriser le déploiement de l'IA dans l'entreprise, et oeuvrer à sa mise en conformité avec la loi sur l'IA ;
• La réalisation d'une cartographie des systèmes d'IA utilisés ou déployés dans des domaines qui seraient considérés comme à haut risque en vertu de la loi sur l'IA ;
• La sensibilisation et la formation du personnel de l'entreprise à l'IA, ainsi que des autres personnes amenées à utiliser des outils basés sur l'IA en leur nom, en tenant compte de leurs connaissances techniques, de leur expérience, de leur éducation et de leur formation, ainsi que du contexte dans lequel ces dispositifs doivent être utilisés.
En plus de ces engagements fondamentaux, Kaspersky est également résolu à dresser la liste des risques susceptibles de compromettre les droits des personnes du fait de l'utilisation de dispositifs d'IA, à veiller à ce que les utilisateurs soient dûment informés lorsqu'ils interagissent directement avec un outil basé sur l'IA, et à informer les employés du déploiement de ces systèmes sur leur lieu de travail.
Kaspersky possède une vaste expérience de l'emploi de l'IA dans ses solutions de cybersécurité. Depuis près de 20 ans, l'entreprise utilise l'automatisation alimentée par l'IA pour améliorer la sécurité et la confidentialité de ses clients, et un spectre de cybermenaces plus large. Les systèmes d'IA devenant de plus en plus répandus, Kaspersky s'engage à partager l'expertise accumulée dans son Centre de recherche sur les technologies d'IA afin de s'assurer que les organisations sont bien armées pour faire face aux risques qui accompagnent le déploiement des dispositifs d'IA.
Pour aider les professionnels du secteur à implémenter des programmes d'IA et les doter de recommandations spécifiques sur la manière de déployer l'IA en toute sécurité, les experts de Kaspersky ont développé des recommandations pour le développement et le déploiement sécurisés des systèmes d'IA (disponible en anglais), qui ont été présentées lors du Forum 2024 de l'ONU sur la gouvernance de l'Internet. Outre les considérations de sécurité, Kaspersky met l'accent sur l'utilisation éthique de ces technologies, et a formulé des principes d'utilisation éthique concernant le secteur de la cybersécurité, invitant d'autres fournisseurs de cybersécurité à adhérer à ces principes et à s'y conformer.
*Avec certaines exceptions décrites dans le règlement : https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32024R1689