Check Point acquisisce Lakera per rafforzare la sicurezza dell’AI
Check Point Software Technologies ha annunciato l’acquisizione di Lakera, una delle piattaforme di sicurezza native di Intelligenza Artificiale (AI), specialista di applicazioni di AI agentica. Con questa acquisizione, spiega un comunicato, Check Point stabilisce un nuovo standard nella sicurezza informatica, in grado di fornire uno stack di sicurezza AI end-to-end completo progettato per proteggere le aziende alle prese con l’accelerazione dell’AI.
“L’AI sta trasformando ogni processo aziendale, ma introduce anche nuove superfici di attacco”, afferma Nadav Zafrir, CEO di Check Point Software Technologies. “Abbiamo scelto Lakera perché offre sicurezza AI-native, precisione superiore e velocità su larga scala”.
Le aziende stanno rapidamente integrando modelli linguistici di grandi dimensioni, AI generativa e agenti autonomi nei flussi di lavoro principali. Questo accelera l’innovazione, ma espande anche la superficie di attacco, dall’esposizione dei dati e dalla manipolazione dei modelli ai rischi introdotti dalla collaborazione multi-agente e dal processo decisionale autonomo.
La sicurezza AI-native in tempo reale quindi è diventata un imperativo per le aziende, spiega la nota, e Check Point garantisce già questa trasformazione attraverso GenAI Protect, la sicurezza SaaS e API, la prevenzione avanzata della perdita di dati e le difese basate sul machine learning per applicazioni, cloud ed endpoint.
Con Lakera, Check Point estende queste capacità per offrire uno dei primi stack di sicurezza AI end-to-end del settore. Combinando la protezione runtime di Lakera con l’architettura Check Point Infinity basata sull’intelligenza artificiale, le aziende possono proteggere l’intero ciclo di vita dell’AI (modelli, agenti e dati), innovando con fiducia, su larga scala e senza compromessi.
“Lakera è stata creata appositamente per l’era dell’IA, con protezione runtime in tempo reale e la ricerca al centro”, afferma David Haber, cofondatore e CEO di Lakera. “Entrare a far parte di Check Point ci consente di accelerare e sviluppare la nostra missione a livello globale. Insieme proteggeremo LLM, AI generativa e agenti con la velocità, la precisione e le protezioni di cui le aziende hanno bisogno”.
Fondata da esperti di AI di Google e Meta, Lakera gestisce importanti centri di ricerca e sviluppo sull’AI a Zurigo e San Francisco. Le sue soluzioni di punta, Lakera Red e Lakera Guard, forniscono valutazioni della postura pre-implementazione e applicazione in tempo reale per proteggere i Large Language Models (LLM), gli agenti AI e i flussi di lavoro multimodali. La piattaforma di Lakera combina una protezione avanzata in fase di esecuzione con un red teaming continuo, rafforzato da Gandalf, leader mondiale nella rete di AI avversaria.
Principali punti di forza della piattaforma Lakera
· Protezione nativa per l’intelligenza artificiale: progettata fin dall’inizio per l’IA, Lakera protegge LLM, AI generativa e agenti attraverso prompt, RAG e MCP, fornendo difese in tempo reale contro l’iniezione di prompt, la fuga di dati e la manipolazione dei modelli.
· Prestazioni comprovate su larga scala: offre tassi di rilevamento superiori al 98% con una latenza inferiore a 50 ms e falsi positivi inferiori allo 0,5%, garantendo alle aziende la possibilità di proteggere i carichi di lavoro basati sull’AI senza influire sulla velocità o sulla precisione.
· Intelligenza continua: alimentata dagli oltre 80 milioni di modelli avversari di Gandalf e guidata da un team di ricerca dedicato all’intelligenza artificiale, la piattaforma di Lakera si adatta costantemente alle minacce emergenti dell’intelligenza artificiale.
· Copertura globale: supporta più di 100 lingue, consentendo la protezione delle aziende in tutto il mondo.
Una volta conclusa la transazione, Lakera costituirà la base del Centro di eccellenza globale per la sicurezza dell’AI di Check Point. La transazione dovrebbe concludersi nel quarto trimestre del 2025, fatte salve le consuete condizioni di chiusura.
Acquisizioni, Check Point, Sicurezza

