许多 AI 工具现已公开可用,从Google Bard 和 Bing AI到推动这一进程的工具:OpenAI 的ChatGPT。但是这些人工智能模型究竟能做什么呢?我们很快就会知道,因为黑客们在 Defcon 31 上对人工智能领域的大腕进行了测试。
黑客大会呼吁今年聚会的与会者“在 Anthropic、Google、Hugging Face、Nvidia、OpenAI 和 Stability 构建的大型语言模型中寻找错误。”
Defcon 31定于 8 月 10 日至 13 日在拉斯维加斯举行。AI 工作由 AI Village 与Humane Intelligence合作组织种子 AI_和 AI 漏洞数据库. 白宫科学、技术和政策办公室国家科学基金会的计算机和信息科学与工程理事会和国会人工智能核心小组也参与其中。
据 Defcon 组织者称,“这是第一次有人尝试让超过数百名专家评估这些模型。” “知道如何最好地使用这些模型及其局限性的人越多越好。这也是新社区通过探索其怪癖和局限性来学习人工智能技能的机会。 ”
AI Village 将监督 Defcon 的 AI 黑客活动
AI Village 的组织者将提供笔记本电脑,访问每个模型,并为能够最彻底地测试每个模型的人提供奖品。组织者说:“我们将提供一个夺旗 (CTF) 风格的积分系统,以促进对各种危害的测试。” “获得最高分的人将赢得高端 Nvidia GPU。”
参与者将包括专家研究人员以及“来自被忽视机构和社区的学生”。所有人都应该遵守黑客希波克拉底誓言。
白宫表示,通过与非政府实体合作,它希望公正、独立的专家来确定这些模型是否符合其AI 权利法案中的标准. 科学、技术和政策办公室起草了权利法案,并监督 Defcon 倡议。
白宫表示:“这项独立演习将为研究人员和公众提供有关这些模型影响的关键信息,并将使人工智能公司和开发人员能够采取措施解决这些模型中发现的问题。”
权利法案确定了政府所说的五项原则“应该指导自动化系统的设计、使用和部署,以在人工智能时代保护美国公众。” 它主张所有人在人工智能方面都拥有以下权利:
您应该免受不安全或无效系统的影响。
你不应该面临算法的歧视,系统应该以公平的方式使用和设计。
您应该通过内置保护措施免受滥用数据行为的影响,并且您应该对如何使用您的数据拥有代理权。
您应该知道正在使用自动化系统,并了解它如何以及为何有助于产生影响您的结果。
在适当的情况下,您应该能够选择退出,并且可以接触到能够快速考虑和解决您遇到的问题的人。
Defcon 活动旨在加快发现违反这些原则的问题。通常情况下,像谷歌和 OpenAI 这样的公司会闭门测试他们自己的技术,或者通过他们自己的漏洞赏金计划,这会产生“安全专业人员和公众必须处理的问题”,Defcon 组织者说。
“我们喜欢新的生成大型语言模型 (LLM) 允许的创造力爆炸,”Defcon 说。“然而,我们才刚刚开始了解大规模自动化这些新技术所带来的嵌入式和紧急风险。”
白宫今天还宣布,国家科学基金会已拨款 1.4 亿美元创建七个新的国家人工智能研究所,而管理和预算办公室将发布政府使用人工智能系统的政策草案,以征求公众意见。夏天。
副总裁卡马拉·哈里斯还会见了 Alphabet、Anthropic、微软和 OpenAI 的首席执行官,讨论了负责任、值得信赖和符合道德规范的人工智能系统的发展。