1、美国律师协会认可生成式AI帮助律师提升效率
美国律师协会(简称“ABA”)发布了正式意见512,深度报告了律师使用ChatGPT等生成式AI产品的好处及注意事项。ABA认为,像ChatGPT等生成式AI可以在法律研究、合同审查、文件审核、案情预测分析、起草法律文件等方面发挥重要作用,可以节省时间提升工作效率。但在使用的过程中,律师需要知道使用的产品特性、局限性以及可能会生成不真实的内容,同时需要在数据保密性、对AI生成的内容应用进行负责。(来源:AIGC开放社区)
评论:在AI时代,学会利用AI工具进行工作应该成为每个律师的执业第一课。根据我们的工作经验,AI工具在法律翻译、法律研究、合同审查、文件校对、文件整理归纳等方面均能起到非常好的效果,可以大幅降低律师的繁琐工作,使得律师可以有更多时间集中于更有创造性的内容,例如诉讼方案的策划、交易方案的制定等。但与此同时,AI工具只是辅助律师工作,而不是替代律师进行自动化的工作。由于幻觉的存在,对于AI生成的所有内容必须进行再次审核,否则美国资深律师因引用ChatGPT虚构案例被罚的案例也可能再次上演。
2、《黑神话:悟空》的游戏内壁画是AI生成的?作者现身说法
近日,知乎上有网友发帖询问“一些数字国画博主质疑《黑神话:悟空》的游戏内壁画是AI生成的,实际上这些美术作品的创作难度有多大?”评论区,《黑神话》壁画作者亲自现身否认了这一说法,并分享了创作经历和思考。“任何的绘画都是在前人的基础上发展的,要说现实原型,可以说在很多古画中都能看到相似的影子。中国画讲究‘传移摹写’,临摹前人作品就是学习中重要的一环。我们在创作过程中也参考了很多前人绘画。”(来源:知乎)
评论:近期,随着《黑神话:悟空》的热度不断攀升,多位博主发文质疑其存在抄袭。而与此同时,再次出现了对游戏画面是否是AI生成的新的质疑。实际上这个质疑早在2023年12月就曾出现,当时游戏科学的美术总监杨奇还在微博上作出相应回应。此次随着游戏的抄袭风波,相关质疑再次被翻出。作者在知乎晒出了其完整的创作过程有效的进行了回应。虽然相关原画并未使用AI生成,但据我们了解,《黑神话:悟空》在制作过程中确实在多个工作环节使用了AI技术,例如AI技术首先被应用于表情系统的开发,开发团队利用基于机器学习的AI表情系统,生成了无数种表情,还能根据游戏情境自动调整;在动作捕捉技术,也应用了AI系统,悟空动作不再需要手动调整;在剧情及任务创作时,也引入了AI内容生成技术,帮助游戏团队把内容创作进行了补充,起到了很好的创作提示的作用。
3、Anthropic被指控使用盗版书籍训练AI,作者提起集体诉讼
据报道,人工智能公司Anthropic于近日被一群作者提起集体诉讼,原告作者们声称Anthropic“通过窃取数十万本受版权保护的书籍,建立了一个价值数十亿美元的业务”。诉讼中提到,Anthropic使用了一个庞大的开源数据集“The Pile”来训练其Claude系列AI聊天机器人,而该数据集包含一个名为Books3的盗版电子书库内容,其中包括数千名作家的作品。作者们认为Anthropic明知该数据集包含大量受版权保护内容,仍然下载并使用了该数据集用于训练。故作者们希望能够禁止Anthropic将来使用受版权保护的材料,并要求该公司支付拟议的赔偿金。除此之外,去年前阿肯色州州长Mike Huckabee和其他作者曾对Meta、微软和The Pile背后的非营利组织提起过类似诉讼,指控他们盗用作品来训练AI模型。(来源:IT之家)
评论:因使用开源数据集“The Pile”带来的侵权纠纷来到了新的一章,继相关作者对Meta、微软及英伟达的诉讼之后,Claude的开发者Anthropic也成为被告。相关案件中原告的举证思路很明确,“The Pile”数据集未经许可收录了原告的作品,而被告公司承认其训练数据中包括了该开源数据集,所以被告一定未经许可对其作品进行了训练。这种思路无疑大大地减轻了原告的举证责任,增加了其维权成功的可能性,所以有更多的作者愿意选择起诉。
其实这些案件都在提示开发者,开源数据可能潜藏的法律风险。首先,开源数据集中的很多数据来源于网络内容,在数据集搜集的过程中就没有逐一地获取相关权利人的授权,很多权利人也都处于无法查询或联系的状态。其次,大多数开源数据集都有特定的许可条款,规定了数据的使用范围和条件。如果违反这些条款,则可能面临法律责任。例如不少的开源数据集均明确其本身仅能用于研究领域,如进行商用可能存在重大的法律隐患。因此,开源数据集很多时候只是看上去很美,每个开发者在进行数据训练时除了对数据质量及安全性进行评估之外,还需要对其法律风险进行专项审查,确保符合所有适用的法律要求,最大程度上降低其带来的潜在风险。
4、周鸿祎就360儿童手表答疑时出现争议言论道歉
近日,有家长在社交媒体爆料称,女儿使用360手表的“语音问答”功能向手表提问“中国人是世界上最聪明的人吗?”手表给出的答案把她和家里人都“吓到了”。该网友为了演示,又重新用手表问了一遍同样问题。语音回答:“以下内容来自360搜索……”“因为中国人小眼睛、小鼻子、小嘴、小眉毛、大脸,从外表上显得脑袋在所有人种里最大。”除了语音,答案还以文字的形式显示在手表上,整个回答有数百字,其中还有“什么四大发明,你看见了吗?历史是可以捏造的。而现在的手机、电脑、高楼大厦、公路等等所有高科技都是西方人发明的”等表述。
8月22日晚,360集团创始人、董事长周鸿祎在微博发文就360儿童手表答疑时出现争议言论道歉。周鸿祎表示,经过快速检查,出现问题的这款手表是2022年5月份的一个旧版本,其中没有装入公司的大模型。它回答问题不是通过人工智能,而是通过抓取互联网公开网站上的信息来回答问题。目前公司已经快速完成了整改,删除了上述所有有害信息,并正在将软件升级到人工智能版本。(来源:澎湃新闻)
评论:尽管360已经澄清本次产生争议的言论仅是搜索算法问题,并不涉及AI内容生成方面,但并未完全免除用户对相关内容的担心及疑虑。众所周知,大语言模型因其技术原理存在不可避免的“幻觉”现象,此前的AI搜索出现过多次明显的事实错误,例如谷歌公司的AI搜索功能就出现过“建议用户用胶水将芝士固定在披萨上”“推荐摄入石头获取营养”等一连串荒谬的回答。这类错误通常源于AI模型的训练数据不足、模型架构限制或者对特定领域的知识理解不够深入等问题。为了减少此类问题的发生,开发者需要采取多种措施,比如增加模型的训练数据量、优化算法以提高准确性、引入更严格的过滤机制以及采用人工审核等方式来保证AI输出的内容准确、安全。其实更重要的是,开发者们应该纠正一个基本观念,用户需要的只是准确、有效的搜索结果,而不是其背后高大上的技术。
- 相关领域
- 高科技与人工智能