I ricercatori di Carnegie Mellon dimostrano che i LLM sono in grado di pianificare ed eseguire attacchi informatici reali in autonomia
I ricercatori di Carnegie Mellon dimostrano che i LLM sono in grado di pianificare ed eseguire attacchi informatici reali in autonomia
Un nuovo studio rivela come l'IA potrebbe sia sfidare che rafforzare le difese future della sicurezza informatica
PITTSBURGH--(BUSINESS WIRE)--In un'importante passo avanti nei settori della cybersicurezza e dell'intelligenza artificiale, i ricercatori della Carnegie Mellon University, in collaborazione con Anthropic, hanno dimostrato che i modelli linguistici di grandi dimensioni (LLM) sono in grado di pianificare ed eseguire in modo autonomo sofisticati attacchi informatici in ambienti di reti di livello aziendale senza intervento umano.
Secondo i risultati dello studio, condotto dal candidato Ph.D. Brian Singer del Dipartimento di Electrical and Computer Engineering della Carnegie Mellon University, i LLM, quando strutturati con capacità di pianificazione ad alto livello e supportati da strutture agentiche specializzate, sono in grado di simulare intrusioni di rete che rispecchiano fedelmente le violazioni del mondo reale.
Il testo originale del presente annuncio, redatto nella lingua di partenza, è la versione ufficiale che fa fede. Le traduzioni sono offerte unicamente per comodità del lettore e devono rinviare al testo in lingua originale, che è l'unico giuridicamente valido.
Contacts
Contatto per i media:
Michael Cunningham
Carnegie Mellon University
mcunningham@cmu.edu
412-443-2051