第15期 | GPTSecurity周报

释放双眼,带上耳机,听听看~!

GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。

Security Papers

🔹OpenAI新产品GPTBot:可爬取网络数据,为GPT-5做准备
简介:OpenAI在官网介绍了新产品GPTBot,这是一种网络爬虫,可大规模爬取网络数据用于训练AI模型。OpenAI表示,将通过GPTBot抓取海量数据,用于训练、优化未来模型。
链接:
https://platform.openai.com/docs/gptbot
🔹全球最大开源地理大模型来啦!IBM、美国航天局权威出品
简介:IBM、NASA(美国国家航空航天局)同时在官网宣布,在Hugging Face上开源全球最大的地理空间大模型——Prithvi。据悉,Prithvi由NASA提供大量地理、气候、灾害等卫星遥感数据,在IBM的watsonx.ai模型上预训练、微调而成。Prithvi主要用于预测气候变化、洪水映射、跟踪森林砍伐、预测作物产量等。
链接:
https://huggingface.co/ibm-nasa-geospatial/Prithvi-100M
🔹黑客类人工智能工具“FraudGPT”出现,专为复杂的攻击而设计
简介:追随WormGPT的脚步,攻击者组织正在各种暗网市场和 Telegram 频道上宣传另一种名为FraudGPT的网络犯罪生成人工智能 (AI) 工具。Netenrich 安全研究员Rakesh Krishnan 在周二发布的一份报告中表示:“FraudGPT是一个人工智能机器人,专门用于攻击目的,例如制作鱼叉式网络钓鱼电子邮件、创建破解工具等。”
链接:
https://thehackernews.com/2023/07/new-ai-tool-fraudgpt-emerges-tailored.html

 

 

Security Tools

🔹GPTreport
简介:该工具用于通过openai api自动生成makedown漏洞报告。
链接:
https://github.com/shiyeshu/GPTreport
🔹Large Language Models are Zero-Shot Fuzzers: Fuzzing Deep-Learning Libraries via Large Language Models
简介:本文证明了现代titanic LLMs可以直接执行几十年来研究的基于世代和基于突变的模糊测试,同时完全自动化、可遗传化,并适用于挑战传统方法的领域(如DL系统)。我们希望TrTANFuzz能够激发LLM在模糊测试这一有希望的方向上的工作。
链接:
https://arxiv.org/pdf/2212.14834.pdf
🔹当GPT遇到程序分析:迈向智能检测GPTScan中的智能合约逻辑漏洞
简介:在本文中,我们提出了GPTScan,这是第一个将GPTScan与静态分析相结合的智能合约逻辑漏洞检测工具。GPTScan不是仅仅依靠GPT来识别漏洞,而是利用GPT作为一种通用的代码理解工具。
链接:
https://arxiv.org/pdf/2308.03314.pdf

给TA买糖
共{{data.count}}人
人已赞赏
行业热点

第14期 | GPTSecurity周报

2023-11-9 9:50:31

行业热点

聚焦谋发展,筑梦新征程——云起无垠乔迁新址

2023-11-10 12:39:31

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索