我们认为,这项技术的使用是不可避免的,因此完全禁止它是不可能的。当务之急是研究界应就这一潜在的颠覆性技术的影响开展辩论。在此,我们概述了五个关键问题,并提出了关于从何开始的建议:1. 坚持进行人工验证

  • 是一盐不是一言
  • 2023-02-11 17:00:00
分享一篇Nature.com新发的评论文章,讨论科学界面对chatgpt 的五项应对措施。里面展现的积极态度和不久前Nature上发布的关于不支持ChatGPT作为论文作者出现的文章形成了有趣的对比。简要概括一下,欢迎戳全文看。

【我们认为,这项技术的使用是不可避免的,因此完全禁止它是不可能的。当务之急是研究界应就这一潜在的颠覆性技术的影响开展辩论。在此,我们概述了五个关键问题,并提出了关于从何开始的建议:

1. 坚持进行人工验证
2. 制定关于如何归责的标准
3. 投资开发真正开放的大型语言模型
4. 拥抱人工智能带来的好处
5. 继续扩大讨论,鼓励每个科研团队甚至本科教学都尝试ChatGPT,呼吁建立持续的、多元的国际论坛来讨论以下问题:

- 哪些研究任务应该或不应该被外包给大型语言模型(LLMs)?
- 哪些学术技能和个性对研究人员来说仍然是必不可少的?
- 在人工智能辅助的研究过程中,哪些步骤需要人类验证?
- 应该如何改变研究正直性(标准)和其他政策以应对大型语言模型?
- 应如何将大型语言模型纳入研究人员的教育和培训中?
- 研究人员和资助者如何帮助开发独立的开源大型语言模型,并确保这些模型准确地代表科学知识?
- 对大型语言模型应该有什么样的质量标准(例如:透明度、准确性、偏见和来源标注),哪些利益相关者应该对这些标准以及大型语言模型负责?
- 研究人员如何确保大型语言模型促进研究的公平性,并避免不平等加剧的风险?
- 应该如何利用大型语言模型来加强开放科学的原则?
- 大型语言模型对科学实践有什么法律影响(例如:与专利、版权和所有权有关的法律和法规)?】
我们认为,这项技术的使用是不可避免的,因此完全禁止它是不可能的。当务之急是研究界应就这一潜在的颠覆性技术的影响开展辩论。在此,我们概述了五个关键问题,并提出了关于从何开始的建议:1. 坚持进行人工验证2. 制定关于如何归责的标准3. 投资开发真正开放的大型语言模型4. 拥抱人工智能带来的好处5. 继续扩大讨论,鼓励每个科研团队甚至本科教学都尝试ChatGPT,呼吁建立持续的、多元的国际论坛来讨论以下问题:- 哪些研究任务应该或不应该被外包给大型语言模型(LLMs)?- 哪些学术技能和个性对研究人员来说仍然是必不可少的?- 在人工智能辅助的研究过程中,哪些步骤需要人类验证?- 应该如何改变研究正直性(标准)和其他政策以应对大型语言模型?- 应如何将大型语言模型纳入研究人员的教育和培训中?- 研究人员和资助者如何帮助开发独立的开源大型语言模型,并确保这些模型准确地代表科学知识?- 对大型语言模型应该有什么样的质量标准(例如:透明度、准确性、偏见和来源标注),哪些利益相关者应该对这些标准以及大型语言模型负责?- 研究人员如何确保大型语言模型促进研究的公平性,并避免不平等加剧的风险?- 应该如何利用大型语言模型来加强开放科学的原则?- 大型语言模型对科学实践有什么法律影响(例如:与专利、版权和所有权有关的法律和法规)?