jeu. Avr 25th, 2024
  • L’IA Cyber Defense Initiative vise à aider les défenseurs du numérique à prendre le dessus sur les attaquants, renforçant ainsi la sécurité mondiale.
  • L’initiative comprend des investissements, un soutien aux startups, aux petites entreprises, aux établissements universitaires et aux chercheurs ; et permettre de nouveaux outils de sécurité d’IA open source.

 

[Vendredi 16 février] Google publie aujourd’hui plusieurs annonces qui forment l’AI Cyber Defense Initiative – une série d’investissements, de formations professionnelles et d’outils visant à utiliser l’IA pour transformer la sécurité en ligne.

 

Compétence :

 

  • Google pour les startups : AI for Cybersecurity est un programme de trois mois qui renforce l’écosystème transatlantique de cybersécurité en soutenant la prochaine vague de cyberentreprises. Le programme fournit à 17 startups d’Europe, des États-Unis et du Royaume-Uni les outils, pratiques et connexions de Google, notamment LetsData, une startup basée en Ukraine qui fournit aux entreprises et aux organisations une détection et une analyse des menaces en temps réel . Tandis qu’Ethiak, basé au Portugal, utilise le piratage éthique autonome pour vérifier systématiquement les faiblesses de votre système, trouver les vulnérabilités et vous indiquer comment les corriger.

 

  • 2 millions de dollars en subventions de recherche et en partenariats stratégiques, pour faire progresser les initiatives de recherche sur la cybersécurité utilisant l’IA, notamment en améliorant la vérification du code, en améliorant la compréhension de la façon dont l’IA peut contribuer à la cyberattaque et aux contre-mesures de défense, et en développant de grands modèles de langage plus résilients aux menaces. Le financement soutient des chercheurs d’institutions telles que l’Université de Chicago, Carnegie Mellon et Stanford.

 

  • Expansion du programme de séminaires sur la cybersécurité de Google.org pour couvrir toute l’Europe et inclure des modules axés sur l’IA , ce qui représente un investissement total de 15 millions de dollars. Le programme, initialement lancé lors de l’ouverture du GSEC Malaga, aide les universités à former la prochaine génération d’experts en cybersécurité issus de communautés mal desservies.

 

Outils:

  • Google lancera en open source un nouvel outil basé sur l’IA : Magika.Magika aide les cyberdéfenseurs grâce à l’identification du type de fichier, un élément essentiel de la détection des logiciels malveillants. Google utilise déjà Magika pour protéger des produits tels que Gmail, Drive et Safe Browsing – et a désormais mis l’outil à la disposition gratuite des autres utilisateurs pour qu’ils puissent l’utiliser et l’intégrer dans leurs propres outils.

Infrastructure:

  • Nous continuons également d’investir dans notre réseau mondial de centres de données sécurisé et prêt pour l’IA. Cela contribuera à mettre les nouvelles innovations en matière d’IA à la disposition des organisations du secteur public et des entreprises de toutes tailles. Au cours de la période 2019 jusqu’à fin 2024, nous aurons investi plus de 5 milliards de dollars dans des centres de données en Europe, contribuant ainsi à soutenir un accès sécurisé et fiable à une gamme de services numériques, y compris de vastes capacités d’IA générative comme notre plateforme Vertex AI .

 

S’exprimant depuis Munich, le président des affaires mondiales de Google, Kent Walker, a déclaré : « L’IA donne aux défenseurs un avantage en supprimant la complexité, en s’adaptant aux nouvelles attaques et en réagissant aux menaces de manière transparente et à grande échelle. Notre initiative de cyberdéfense basée sur l’IA inverse le dilemme du défenseur, dans lequel les défenseurs doivent avoir raison à tout moment et les attaquants ne doivent avoir raison qu’une seule fois. Mais pour maintenir cette dynamique, nous avons besoin de politiques qui à la fois atténuent les risques et saisissent les opportunités de l’IA. »

 

Lors de la conférence sur la sécurité de Munich en Allemagne aujourd’hui, Google publiera également un livre blanc partageant de nouveaux détails sur la manière dont Google utilise l’IA pour la cyberdéfense et détaillant un programme politique conçu pour inverser le « dilemme des défenseurs » – un concept de cybersécurité qui décrit les avantages inhérents de être un cyberattaquant plutôt qu’un défenseur. Le livre blanc « Secure, Empower, Advance: How AI Can Reverse the Defender’s Dilemma » soutient que la collaboration internationale peut façonner l’IA au profit des défenseurs plutôt que des attaquants. Parmi les recommandations, Google affirme qu’une approche réglementaire équilibrée de l’IA est nécessaire pour éviter un avenir dans lequel les attaquants peuvent innover mais les défenseurs ne le peuvent pas.Le document appelle également à donner la priorité aux pratiques de sécurité dès la conception et aux garde-fous en matière de cyberdéfense autonome ; et une coopération avancée en matière de recherche sur l’IA afin de permettre des percées scientifiques, avec un accent particulier sur la recherche qui construit des défenses avec ou contre l’IA.

 

L’AI Cyber Defense Initiative est la dernière d’une série de mesures prises par Google pour protéger la cybersécurité en Europe et dans le monde. En novembre de l’année dernière, Google a ouvert le Google Safety Engineering Center Malaga , un nouveau centre qui vise à faire progresser l’état de l’art en matière de cybersécurité et d’analyse des logiciels malveillants. Google sait également utiliser l’IA pour protéger la cybersécurité. La fonctionnalité de navigation sécurisée améliorée basée sur l’IA de Google Chrome examine des milliards d’URL par rapport aux ressources Web malveillantes connues, envoyant plus de trois millions d’avertissements par jour aux utilisateurs ; tandis que l’outil d’IA anti-blanchiment d’argent de Google Cloud aide les institutions financières à surveiller les transactions bancaires, en identifiant les activités financières suspectes avec une précision jusqu’à quatre fois supérieure à celle des outils précédents. L’année dernière, VirusTotal de Google a également rapporté que l’IA permettait d’obtenir des taux de détection des scripts malveillants 70 % supérieurs à ceux des outils traditionnels seuls, et une capacité jusqu’à 300 % améliorée à identifier les fichiers qui exploitent des vulnérabilités.

 

Notes aux rédacteurs

 

  • Il s’agit de la dernière d’une série d’annonces faites par Google au cours de la semaine dernière pour saisir l’opportunité de l’IA et protéger la cybersécurité des utilisateurs. Le lundi 12 février, Google.org et Google Growth Academy ont annoncé l’ AI Opportunity Initiative , un programme de compétences de 25 millions d’euros qui forme les groupes mal desservis et vulnérables et ceux qui risquent d’être laissés pour compte dans l’IA.
  • L’année dernière, notre rapport Fog of War publié au MSC a montré une augmentation de 250 % des attaques de phishing ciblant les Ukrainiens et une augmentation de 300 % des attaques visant les personnes dans les pays de l’OTAN. Cette année, notre rapport « Outil de premier recours : la guerre cybernétique entre Israël et le Hamas », publié mercredi, montre que le Hamas et les groupes liés à l’Iran ont eu recours à des cyberopérations contre Israël et les infrastructures critiques américaines – y compris des opérations d’espionnage iraniennes. Il révèle également que le conflit Israël-Hamas est très différent des autres conflits, sans aucune preuve que la cyberactivité soit intégrée aux champs de bataille du Hamas ou que la cyberactivité ait été utilisée pour permettre des événements cinétiques, comme ce fut le cas par les acteurs russes de la menace contre des cibles ukrainiennes avant les frappes de missiles. .
  • Cela fait suite au rapport du groupe Threat Analysis de Google sur « Comment fonctionne le secteur de la surveillance commerciale et ce qui peut être fait à ce sujet », publié plus tôt ce mois-ci.
  • Google développe également l’IA de manière responsable. Google a cofondé le Frontier Model Forum (FMF) pour faire progresser la recherche sur la sécurité de l’IA, et a créé le Secure AI Framework (SAIF) comme moyen de collaborer sur les meilleures pratiques de sécurisation des systèmes d’IA – et soutient les mesures gouvernementales en collaboration avec les entreprises et autres organismes civils. les acteurs de la société pour faire face et atténuer ces risques .
  • Google s’engage à soutenir les élections qui auront lieu dans le monde entier en 2024 en fournissant des informations de haute qualité aux électeurs, en protégeant nos plateformes contre les abus et en équipant les campagnes des meilleurs outils et formations de sécurité. Dans l’ensemble de nos efforts, nous nous concentrerons davantage sur le rôle de l’intelligence artificielle (IA) et le rôle qu’elle peut jouer dans le paysage de la désinformation, tout en tirant parti des modèles d’IA pour renforcer nos efforts de lutte contre les abus. Apprenez-en davantage sur la manière dont nous soutenons les élections au Parlement européen en 2024 ici .
  • La liste complète des organisations rejoignant cette cohorte du programme Google for Startups Growth Academy : AI for Cybersecurity est :

○      Alma Sécurité (États-Unis)

○      Authologique (Pologne)

○      BforeAI (France)

○      Lumière noire (Royaume-Uni)

○      Cesare.ai (France)

○      Cakewalk (Allemagne)

○      Éthiack (Portugal)

○      Gomboc.ai (États-Unis)

○      HACKERverse (États-Unis)

○      Cryptos (États-Unis)

○      PermetDonnées (NOUS)

○      Nijta (France)

○      Pile de correctifs (Estonie)

○      Dés quantiques (Royaume-Uni)

○      ShareID (France)

○      Talsec (République tchèque)

○      Zepo (Espagne)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *