Investigadores de Carnegie Mellon demuestran que los LLM pueden planificar y ejecutar en forma autónoma ciberataques reales
Investigadores de Carnegie Mellon demuestran que los LLM pueden planificar y ejecutar en forma autónoma ciberataques reales
Un nuevo estudio revela cómo la IA podría tanto desafiar como fortalecer las futuras defensas de ciberseguridad.
PITTSBURGH--(BUSINESS WIRE)--En un importante avance en los campos de la ciberseguridad y la inteligencia artificial, investigadores de la Universidad Carnegie Mellon, en colaboración con Anthropic, demostraron que los grandes modelos de lenguaje (LLM, por sus siglas en inglés) pueden planificar y ejecutar de forma autónoma ciberataques sofisticados en entornos de red de nivel empresarial sin intervención humana.
El estudio, dirigido por Brian Singer, el candidato a doctorado del Departamento de Ciencias de la Computación de Carnegie Mellon, Ingeniería Eléctrica e Informática, revela que los LLM, cuando se estructuran con capacidades de planificación de alto nivel y están respaldados por marcos de agentes especializados, pueden simular intrusiones en la red que reflejan fielmente las violaciones del mundo real.
El comunicado en el idioma original es la versión oficial y autorizada del mismo. Esta traducción es solamente un medio de ayuda y deberá ser comparada con el texto en idioma original, que es la única versión del texto que tendrá validez legal.
Contacts
Contacto para los medios de comunicación:
Michael Cunningham
Universidad Carnegie Mellon
mcunningham@cmu.edu
412-443-2051