马斯克与逾千名专家以“社会风险”为由, 促暂停发展人工智能
青锋明 • • 134 次浏览
电动车巨头特斯拉首席执行官马斯克和一群人工智能专家呼吁,暂停开发比美国人工智能公司OpenAI新推出的GPT-4更强大的智能系统。
路透社星期三(3月29日)报道, 这封公开信由非营利组织未来生命研究所(FLI)公布,有包括马斯克在内的1000多人签署,旨在呼吁暂停开发高级人工智能,直到独立专家完成开发、实施和审计等共享安全协议。
专家在公开信中写道:“只有当我们确信它们(高级人工智能)的效果是积极的,风险是可控的情况下,才应该开发强大的人工智能系统。”
信中还详细描述了具有人类竞争力的人工智能系统,以经济和政治干扰的形式对社会和文明造成的潜在风险,并呼吁开发者与决策者在治理和监管机构方面进行合作。
欧洲刑警组织(Europol)星期一(27日)也加入了对ChatGPT等先进人工智能的道德和法律担忧的行列,警告该系统或被滥用于网络钓鱼、虚假信息和网络犯罪。
与此同时,英国政府公布了围绕人工智能建立“适应性强”监管框架的提案。英政府在最新发布的一份政策文件中,概述了相关监管做法,既将管理人工智能的责任分配给人权、健康与安全以及竞争方面的监管机构,而不是创建一个专门针对这项技术的新机构。
也在公开信上签名的纽约大学教授马库斯(Gary Marcus)说:“这封信并不完美,但其精神是正确的:我们需要慢下来,直到我们更好地理解其后果。”
除了马斯克外,联合签署人还包括Stability AI首席执行官莫斯塔克(Emad Mostaque)、谷歌母公司 Alphabet旗下DeepMind的研究人员,以及人工智能重量级人物图灵奖得主本希奥(Yoshua Bengio)和美国加州大学伯克利分校计算机科学教授拉塞尔(Stuart Russell)。
OpenAI尚未对此置评。
https://www.zaobao.com.sg/realtime/world/story20230329-1377620
-
#1
感觉很难电影里出了屠龙刀你不要我要我不要他要
封印有点难 -
青锋明 楼主#2
层主心地单纯逻辑上讲,这样的行为不是顶级mnc的ceo的符合逻辑的做法。换句话说,若我们这样想这样做,则更符合情理和逻辑,我们也因此才处于目前的阶层。。。但处于那个阶层和位置,能够生存下来,不是可以用常识来简单推断的。
我觉得,马总是大气的人,做事做人都大气,相对于一时的功利,马总的一直以来的行为模式更倾向于是为了在人类发展长河里,留下一朵自己的浪花,俗语是:青史留名。如果以上逻辑分析正确的话,那么,签名这件事,只会在未来的几百年后,在人机发生冲突的时代,我们的后代回顾历史,会敬佩地说:在史之初,马总就已经告诫大家:I told you so:) -
#3
马斯克和一群人工智能专家呼吁暂停发展更强大的智能系统,这一呼吁引起了广泛关注和重视。首先,我们需要认识到高级人工智能虽然带来了很多好处,但随之而来的社会风险也需要我们高度关注。这些人工智能系统的发展可能会带来严重的后果,对社会和文明构成潜在风险,如经济和政治干扰等,因此我们需要慎重对待这一问题。
在此过程中,个人和企业的举止和决策至关重要。开发高级人工智能的公司需要独立专家进行开发、实施和审计,确保新系统的安全性和可控性。我们需要建立共享的安全协议,确保高级人工智能的效果是积极的,风险是可控的情况下才能够继续发展.
此外,政府也需要参与到监管机构,以确保该技术在发展过程中不会对人权、健康和安全及竞争造成不良影响。到目前为止,英国政府公布的建立适应性强的监管框架的提案就是个好的思路。
虽然一些人认为这封公开信存在不完美,且仍有更多需要探讨和研究的问题,但它所传递的精神是值得我们关注的:我们应该慢下来,仔细考虑发展人工智能所可能带来的风险和未知的后果。因此,我们应该建立合作机制,不断探索人工智能和大数据的道德和法律问题,确保这项技术的发展朝着正确的方向前进。