PassGPT:基于大型语言模型的密码建模和(引导式)生成
PassGPT:Password Modeling and (Guided) Generation with Large Language Models
Javier Rando, Fernando Perez-Cruz, Briland Hitaj
[ETH Zürich & SRI International]
PassGPT:基于大型语言模型的密码建模和(引导式)生成
动机:旨在研究大型语言模型(LLM)在密码建模方面的有效性,以及利用LLM进行密码生成和强度估计的创新方法。
方法:通过在密码泄露数据上训练PassGPT,一种基于密码泄露的LLM,进行密码生成。引入了引导式密码生成的概念,利用PassGPT的采样过程生成符合任意约束条件的密码。还通过深入分析PassGPT对密码的熵和概率分布,探讨了如何改进现有密码强度估计方法。
优势:PassGPT在密码生成方面表现优于基于生成对抗网络(GAN)的现有方法,可以猜测出两倍于之前未见密码的数量。PassGPT还能进行引导式密码生成,而现有的基于GAN的方法无法实现此功能。PassGPT提供了显式的概率分布,模型简单且生成速度快。
通过PassGPT和PassVQT两种基于大型语言模型的密码生成方法,取得了在密码生成和强度估计方面的优秀结果,并提出了引导式密码生成和概率分布对密码强度的评估方法。
来自 ETH Zürich、瑞士数据科学中心和纽约 SRI International 的研究人员利用 OpenAI 的 GPT-2 架构的强大功能开发了 PassGPT,这是一种基于大型语言模型 (LLM) 构建的密码猜测模型。 它接受了来自各种黑客攻击和漏洞利用