前言
在社区的支持(pull requests感谢ID:龙飞师傅的帮助【】)下,增加了本地ollama的支持,让代码审计的速度翻了几十倍!!!!!
以往是借助DeepSeek的API,但是由于代码审计的文件过多,token使用量可能会达到很高的数值。so!继续感谢这位师傅添加对ollama的支持
目前功能:流量分析、JS代码审计、进程分析、HTTP转python、文本处理、正则表达式生成、WebShell检测、翻译、PHP、JSP、ASP代码审计
增加了主题的选择
另外,我单独把代码审计工具和WebShell检测工具拿了出来,并让DeepSeek进行了洁面的美化,嘻嘻,甲方面前又成专家啦🤪
在我经过多轮测试,如果你需要通过AI进行代码审计,在效率上,我还是建议你使用本地的ollama进行实验,至少使用qwen2.5的7b模型(大多数主流电脑都可以允许起来),注意,你可以自行测试各个模型是否好用,有测试好的,可以在留言区评论,模型参数太小AI不是很听话
这里探讨的是ai的使用,所以不提供ollama的安装方式(很简单,百度一下即可)
ollama pull qwen2.5
我是macbookpro 24g,基本上两秒就可以审一个文件,当然,AI审计出来的结果只做人工参考,还需要人工去看的。
不过,根据我实际使用,如果你希望有更好的输出效果,还是尽量使用
ollama pull qwen2.5-coder:14b
webshell检测
因为是AI检测,所以比市面上主流的规则检测的要强大的多得多。
优点:算法强
缺点:时间慢
不但会进行代码审计,还可以进行WebShell检测
使用教程
将代码下载到本地(后台回复“DStools”)
cd DeepSeekSelfTool
pip install -r requirements.txt
配置config.py
python DeepSeekSelfTool.py
python ollamaMain.py
本程序分为两个
DeepSeekSelfTool.py为主程序可以调用DeepSeek或者ollama
ollamaMain.py为批量代码审计/WebShell检测
config文件解释
# API配置
API_TYPE="ollama" # 可选值: "deepseek" 或 "ollama"
# DeepSeek API配置
DEEPSEEK_API_KEY=""
# Ollama API配置
OLLAMA_API_URL="http://localhost:11434/api/chat" # Ollama API地址
OLLAMA_MODEL="qwen2.5-coder:14b" # Ollama模型名称
如果你想DeepSeekSelfTool使用ollama,那么你必须将API_TYPE改为ollama,否则请配置deepseek和DEEPSEEK_API_KEY
如果你想使用ollamaMain的批量代码审计和WebShell检测,请务必配置OLLAMA_API_URL和OLLAMA_MODEL,并确保模型已经以前pull好了。
点个在看你最好看
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...