管理人工智能就要找到可行的管理方案

2024年01月19日 由 samoyed 发表 290 0

人们对生成式人工智能技术的担忧似乎与这些技术本身的传播速度一样快。这些担忧是由对前所未见的规模的虚假信息可能传播的不安以及对失业、对创意作品失去控制的担忧驱动的,更具未来感的担忧是,AI 变得如此强大,以至于导致人类物种的灭绝。


ai


这些担忧引发了对监管人工智能技术的呼吁。例如,欧盟政府回应了公民对监管的推动,而英国和印度等一些国家则采取了更自由放任的做法。


在美国,白宫于2023年10月30日发布了标题为《安全、保险和值得信赖的人工智能》的行政命令。它制定了减少来自人工智能技术即时和长期风险的指南。例如,它要求人工智能供应商与联邦政府共享安全测试结果,并呼吁国会制定消费者隐私立法,以应对人工智能技术对个人数据的收集。


鉴于对人工智能监管的推动,考虑哪些监管方法是可行的尤为重要。这个问题有两个方面:如今技术上什么是可行的,以及经济上什么是可行的。


1、尊重版权


一种监管人工智能的方法是限制训练数据为公共领域材料和人工智能公司已获得许可使用的有版权材料。人工智能公司可以精确判断可以用于训练的数据样本,并只能使用被许可的材料。这在技术上是可行的。


在经济上可行。人工智能生成内容的质量取决于训练数据的数量和丰富度。因此,对于人工智能供应商而言,不限制自己仅使用获得许可的内容在经济上是有利的。不过,如今一些生成式人工智能公司正在宣称,他们仅使用了获得许可的内容。一个例子是Adobe及其Firefly 图像生成器。


2、将输出归因于训练数据的创作者


将人工智能技术的输出归因于特定的创作者——艺术家、歌手、作家等,以便他们可以得到补偿,是另一种潜在的监管生成式人工智能的方式。然而,所用人工智能算法的复杂性使得无法确定输出基于哪些输入样本。即使那是可能的,也无法确定每个输入样本对输出的贡献程度有多少。


归因是一个重要问题,因为它很可能决定创作者或他们作品的许可持有者是选择接受还是抵制人工智能技术。在好莱坞编剧罢工148天及其所获得的让步展示了这个问题。


这种在人工智能输出端的监管类型,在技术上是不可行的。


3. 区分人类和人工智能生成的内容


人们对人工智能技术的一个直接担忧是,它们会声成自动生成的虚假信息。这种情况已经在不同程度上发生了,这对依赖通过可靠新闻源了解情况的公众的民主来说是一个重要担忧。


在初创企业领域有很多活动旨在开发能够区分人工智能生成的内容和人类生成的内容的技术,但迄今为止,这种技术落后于生成式人工智能技术。当前的方法侧重于识别生成式人工智能的模式,这几乎注定是一场失败的战斗。


这种监管人工智能的方法,也在输出端,技术上目前是不可行的,尽管在这一方面可能会迅速进步。


4. 将输出归因于人工智能公司


将输出归因于人工智能公司 将人工智能生成的内容归因为来自特定人工智能供应商技术是可能的。这可以通过已经被理解和成熟的加密签名技术完成。人工智能供应商可以对他们系统的所有输出进行加密签名,任何人都可以验证这些签名。


这项技术已经嵌入了基本的计算基础设施中——例如,当一个网络浏览器验证你正在连接的网站时。因此,人工智能公司可以轻松部署它。不同的问题是,是否希望依赖来自少数大型、成立已久的供应商的人工智能生成内容,它们的签名可以被验证。


因此,这种形式的监管在技术上和经济上是可行的。监管针对的是人工智能工具的输出端。


政策制定者了解每种形式的监管可能的成本和好处将是重要的。但首先他们需要了解哪些监管方式在技术上和经济上是可行的。

文章来源:https://techxplore.com/news/2024-01-reining-ai-figuring-options-feasible.html
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消