《科研领域负责任使用生成式人工智能指南》(承担科研任务)

《科研领域负责任使用生成式人工智能指南》(承担科研任务)

近年来,随着数据资源的广泛可用、计算能力的飞跃以及机器学习的进步,人工智能技术取得了突飞猛进的发展。特别是在基础模型的开发上,我们见证了其显著的成就——在大量未标记数据上训练的人工智能模型,催生了所谓的“通用人工智能”。这些模型能够执行多样化任务,包括创造各种新内容(如文本、代码、图像等),我们称之为“生成式人工智能”。它们通常根据用户输入的指令(提示)来生成内容,其质量之高,以至于很难将其与人类生成的内容进行区分。

生成式人工智能的广泛而快速的应用引发了人们的广泛关注以及广泛的政策和机构回应。欧盟在《人工智能法案》方面处于全球领先地位,其他国际治理也在努力进行中。其中包括七国集团主导的广岛进程或人工智能安全峰会后签署的《布莱切利宣言》。

一.科学研究是可能受到生成式

AI影响最严重的领域之一

生成式人工智能为各行各业带来了无限可能。然而,它也伴随着风险,比如大量制造虚假信息,以及其他可能对社会产生重大影响的不道德用途。尤其是在科学研究领域,人工智能的潜力巨大,它能够加速科学发现,提高研究效率和验证过程的速度。但同时,技术的滥用也可能导致研究的不端行为和错误信息的传播。

二.为何需要这份指南?

为了确保人工智能工具的好处得到充分利用,不同的机构如高校、科研机构、科研资助机构和出版商已经发布了关于如何恰当使用人工智能的指南。然而,这些指南的多样性造成了一定的复杂性,使得在特定情况下难以确定应该遵循哪些指导。

因此,欧洲研究领域论坛决定为公共和私人研究生态系统中的科研资助组织、科研机构和科研人员制定一套关于在研究中使用生成式人工智能的指导方针。这些指导方针旨在防止滥用,并确保生成式人工智能在改进研究实践中发挥积极作用。

三.指南的核心原则

这些指导方针基于现有的相关框架,如《欧洲研究诚信行为准则》和《高级别专家制定的关于可信赖人工智能的工作和指南》。它们强调了研究质量的可靠性、透明度、公平性、彻底性和公正性,以及尊重同事、研究参与者和社会的原则。

四.关于在科学研究中负责任地使

用生成式人工智能的指导原则

(一)对科研人员的建议

1. 对科研成果负最终责任。

a) 科研人员对由人工智能工具生成或在其支持下生成的内容的完整性负责。

b) 科研人员在使用生成式人工智能所产生的结果时应保持批判的态度,并意识到这些工具的局限性,如偏差、幻觉和不准确性。

c) 人工智能系统既不是作者,也不是共同作者。作者身份意味着代理权和责任,因此它属于人类科研人员。

d) 科研人员不会在科学研究过程中使用生成式人工智能制作的材料,例如伪造、篡改或操纵原始研究数据。

2. 透明地使用生成式人工智能。

a) 为透明起见,科研人员应详细说明在其研究过程中主要使用了哪些生成式人工智能工具。提到的工具可包括名称、版本、日期等,以及它是如何被使用并对研究过程产生影响的。如果相关,研究人员应根据开放科学原则提供输入(提示)和输出。

b) 科研人员考虑到了生成式人工智能工具的随机性,即相同的输入会产生不同的输出。科研人员力求结果和结论的可重复性和稳健性。他们披露或讨论所使用的生成式人工智能工具的局限性,包括生成内容中可能存在的偏差,以及可能的缓解措施。

3. 在与人工智能工具共享敏感或受保护信息时,要特别注意与隐私、保密和知识产权相关的问题。

a) 科研人员应注意到,生成或上传的输入(文本、数据、提示、图像等)可能会被用于其他目的,如训练人工智能模型。因此,他们要保护未发表或敏感的作品(如自己或他人未发表的作品),注意不要将其上传到在线人工智能系统中,除非能保证这些数据不会被重复使用。

b) 科研人员应注意不向在线生成式人工智能系统提供第三方的个人数据,除非得到数据主体(个人)的同意,且应遵守欧盟数据保护规则确保符合欧盟数据保护规则。

c) 科研人员应了解有关隐私、保密和知识产权的技术和道德影响。例如,检查工具的隐私选项、工具的管理者(公共或私营机构、公司等)、工具的运行地点以及对上传信息的影响。这可能包括封闭环境、在第三方基础设施上托管并保证隐私,也可能包括开放的互联网访问平台。

4. 在使用生成式人工智能时,要像在常规研究活动中一样,尊重适用的国家、欧盟和国际立法。特别是,生成式人工智能所产出的成果在知识产权和个人数据保护方面可能特别敏感。

a) 科研人员在使用生成式人工智能的输出结果时,要注意剽窃(文本、代码、图像等)的可能性。科研人员要尊重他人的著作权,并在适当时引用他人的作品。生成式人工智能的输出(如大型语言模型)可能基于他人的成果,需要适当识别和引用。

b) 生成式人工智能产生的输出可能包含个人数据。如果出现这种情况,科研人员有责任负责任地妥善处理输出的任何个人数据,并遵守欧盟数据保护规则。

5. 通过培训等方式,不断学习如何正确使用生成式人工智能工具,以最大限度地发挥其优势。生成式人工智能工具发展迅速,新的使用方法不断被发现。科研人员要及时了解最佳实践,并与同事和其他利益相关者分享。

6. 避免在可能影响其他科研人员或组织的敏感活动中大量使用人工智能生成工具(例如同行评审、研究提案评估等)。

a) 避免使用生成式人工智能工具,可消除这些工具的局限性(如幻觉和偏见)可能导致的不公平待遇或评估的潜在风险。

b) 此外,这样做还可以保护科研人员未发表的原创作品,使其免于暴露或被纳入人工智能模型。

(二)对科研机构的建议

1.促进、指导和支持在研究活动中负责任地使用生成式人工智能。

a) 科研机构提供和/或促进关于使用生成式人工智能的培训,特别是(但不限于)关于验证输出、维护隐私、解决偏见和保护知识产权的培训。

b) 科研机构提供支持和指导,确保符合道德和法律要求(欧盟数据保护规则、知识产权保护等)。

2. 积极监督组织内生成式人工智能系统的开发和使用情况。

a) 科研机构始终关注其使用生成式人工智能的研究活动和流程,以便更好地支持其未来的使用。以便为使用生成式人工智能提供进一步指导、帮助确定培训需求,并了解哪种支持最有益;帮助预测和防范人工智能工具可能被误用和滥用;出版并与科学界共享。

b) 科研究机构分析技术和工具的局限性,并向其科研人员提供反馈和建议。

3. 参考这些生成式人工智能指南,或将其纳入研究实践和伦理的一般研究指南中。

a) 科研机构以这些指导方针为讨论基础,就生成式人工智能的使用和相关政策公开征求研究人员和利益相关者的意见。

b) 科研机构应尽可能采用这些指导方针。如有必要,还可补充具体的附加建议和/或例外情况,并应公布这些建议和/或例外情况,以提高透明度。

4. 在可能和必要的情况下,实施本地托管或基于云的生成式人工智能工具,由它们自己管理。这样,员工就能将他们的科学数据输入到一个能确保数据保护和保密性的工具中。各组织确保这些系统,特别是与互联网连接的系统达到适当的网络安全水平。

(三)对科研资助组织的建议

资助组织在不同的背景下运作,遵循不同的任务和规定,可能与单一的一套准则不一致。以下是一些有效的做法,供各组织以最适合其具体情况和目标的方式加以实施。

1. 促进和支持在研究中负责任地使用生成式人工智能。

a) 科研资助组织设计的资助工具应开放、乐于接受并支持在研究活动中负责任地、合乎道德地使用生成式人工智能技术。

b) 科研资助组织应要求受资助的研究和受资助者符合现有的国家、欧盟和国际立法(如适用)以及使用生成式人工智能的有益实践。

c) 科研资助组织应鼓励研究人员和研究机构以合乎道德和负责任的方式使用生成式人工智能,包括遵守法律和研究标准要求。

2. 审查生成式人工智能在其内部流程中的使用情况。它们将确保以透明和负责任的方式使用人工智能,从而起到带头作用。

a) 根据强调责任和人为监督的问责原则,科研资助组织仍对在其活动中使用生成式人工智能负全部责任。

b) 科研资助组织应以透明的方式使用生成式人工智能,特别是在与评估和评价目的管理有关的活动中,并且不损害内容的保密性和过程的公平性。

c) 在选择生成式人工智能工具时,科研资助组织应仔细考虑该工具是否符合质量、透明度、完整性、数据保护、保密性和尊重知识产权的标准。

3. 要求科研项目申请者在使用生成式人工智能方面保持透明,以便于报告。

a) 科研项目申请者应声明在申报过程中是否使用了大量人工智能生成工具。

b) 科研项目申请者应提供信息,说明生成式人工智能在提议和开展的研究活动中的作用。

4. 关注并积极参与快速发展的生成式人工智能领域。科研资助组织应推动并资助培训和教育计划,以便在科学研究中以合乎道德和负责任的方式使用人工智能。

结语

欧盟发布的《在科研领域负责任地应用生成式人工智能指南》提供了一套全面而深入的指导原则,旨在确保生成式人工智能能够在科研领域中发挥积极作用,同时避免其潜在的风险和滥用。需要注意的是指导方针将不断更新,以适应技术和政策环境的变化。我们鼓励所有利益相关者积极参与讨论,共同推动生成式人工智能在科研领域的负责任应用。

免责声明:本文转自元战略,原作者寂谷。文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!

转自丨元战略

作者丨寂谷

《科研领域负责任使用生成式人工智能指南》(承担科研任务)

研究所简介

国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。

地址:北京市海淀区小南庄20号楼A座

电话:010-82635522

微信:iite_er

《科研领域负责任使用生成式人工智能指南》(承担科研任务)

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

(0)
上一篇 2024年4月14日 下午4:10
下一篇 2024年4月14日 下午4:22

相关推荐