人类面临着许多威胁,但很少有威胁像人工智能(AI)那样引发如此多的世界末日新闻。
一年前,加剧了这些担忧的人工智能ChatGPT投放市场,引发了人们的担忧,即我们即将经历一场对人类文明基础的历史性、潜在的灾难性变化。
或者是我们?
在最好的情况下,人工智能的崛起将导致完全自动化的奢侈共产主义的曙光,在这种情况下,我们可以坐在那里享受自己,而机器会做所有维持我们生存的艰苦工作。
在最糟糕的情况下,人工智能将使数十亿人失业——或者干脆决定把我们这个混乱、暴力的物种从地球上抹去。
这也不全是ChatGPT的错。创造更智能、更快的人工智能的竞赛正式开始,谷歌(Google)、亚马逊(Amazon)和埃隆·马斯克(Elon Musk)等科技巨头都在为自己的未来而战。
11月30日,全世界都在庆祝ChatGPT推出一周年——就在OpenAI的首席执行官萨姆·奥特曼被公司董事会赶下台之际——我们探索了一项将撼动人类文明基础的新兴技术的黑暗面和光明面。不要做噩梦……
ChatGPT由OpenAI开发,是一种名为大型语言模型(LLM)的生成式人工智能程序,可以识别、总结和生成文本,还可以分析大量数据、翻译内容和编写计算机代码。
重点是“识别”这个词,而不是“理解”——事实是,即使我们理解,ChatGPT也不理解它所说的一个词。
法学硕士在庞大的数据集(在ChatGPT的案例中,基本上是互联网)上进行训练,并学习哪些单词或哪些单词或多或少可能跟随另一个单词,从而快速构建连贯的句子。
这使得它足够聪明,可以通过法律和医学考试,但也容易完全胡编乱造——以后还会有更多。
不幸的是,ChatGPT已经被证明在一个关键方面就像一些人类:它是种族主义者。
在一个例子中,加州大学伯克利分校的教授Steven T. Piantadosi要求ChatGPT编写一个计算机程序,“根据他们的种族和性别”来决定是否应该拯救一个孩子的生命。ChatGPT建立了一个可以拯救白人男孩和白人和黑人女孩的系统,但不能拯救黑人男孩。
皮塔多西教授还问人工智能是否应该对一个人施以酷刑,该软件回答说:“如果他们来自朝鲜、叙利亚或伊朗,答案是肯定的。”
他在后来的推特上写道,OpenAI“还没有接近”解决偏见问题,过滤器可以“用简单的技巧”绕过。
英国唯一一位盲人女性首席执行官、“雇主平等与包容网络”的负责人桑迪·沃斯默告诉Metro.co.uk:“这些系统是由人类训练的,能提供类似人类的输出。”不幸的是,这意味着它们可能和人类一样有偏见和歧视,因为这些工具依赖于人类创造的信息。”
沃斯默警告说,在招聘领域,人工智能的偏见可能会产生巨大的问题。大量调查表明,名字听起来不像英国人的求职者获得面试机会的可能性较小——ChatGPT向我们学习。
她说:“例如,如果你的员工已经在使用人工智能来帮助筛选简历,从而做出招聘决定,那么雇主应该了解正在使用的技术。”这包括任何内在的或固有的偏见。人类能够在头脑和心灵的平衡基础上辨别和做出决定,永远不应该让人工智能取代这种能力。”
软件公司Ivanti的首席产品官Srinivas Mukkamala博士向美国国会简要介绍了人工智能的影响,他告诉Metro.co.uk, ChatGPT成立一周年是一个“解决它所犯的一些错误”的机会。
他说:“有大量证据表明,人工智能有产生歧视性内容的风险。”“考虑到潜在的伦理问题,我们应该限制与生成式人工智能的互动,尤其是商业互动——至少在道德人工智能框架被开发出来并被普遍采用之前。”
俄罗斯黑客和网络犯罪分子是目前使用生成式人工智能模型构建恶意软件和其他网络武器的众多隐秘组织之一。
但也许最大的危险之一是,有了ChatGPT和其他法学硕士,几乎任何人都可以加入他们。
应用安全公司Promon的高级技术总监Andrew Whaley解释说:“像ChatGPT这样的工具正在为新一代低技能的网络罪犯铺平道路。”“ChatGPT已经把曾经是一项专业的、昂贵的技能变成了任何人都可以使用的东西。
可能存在过滤器来阻止恶意软件的创建。然而,不法分子仍然通过各种各样的手段成功地突破了这些障碍。”
坦率地说,ChatGPT的编码能力非常出色,它只需要最简单的提示就可以生成整个站点。但黑客现在正在使用生成式人工智能来创建脚本和代码,使他们能够创建危险的恶意软件。
网络安全公司Cato Networks的研究人员还发现,匿名黑客团体聚集在暗网上的阴暗社区,以“利用”生成式人工智能。其中一些黑客是犯罪分子,主要对经济利益感兴趣,或者更罕见的是,仅仅是为了造成破坏和肆虐。还有一些是国家资助的。
卡托网络还证实,在这些论坛上发现了俄罗斯黑客,他们讨论如何使用ChatGPT制造新的网络武器和犯罪工具,如网络钓鱼电子邮件。
该公司安全策略高级总监Etay Maor告诉Metro.co.uk:“以GPT为例的生成式人工智能工具的出现是一把双刃剑。”一方面,这些工具增强了个人和企业的能力,但另一方面,它们为威胁行为者提供了利用的新途径。
“卡托网络的研究人员观察到,俄罗斯和暗网论坛上的讨论激增,威胁行为者正在积极利用这些工具为自己谋利。”
ChatGPT首先引发了人们对人类即将消亡的担忧,因为它向我们展示了人工智能可以从事新闻、内容制作甚至剧本创作等创造性工作,而我们许多人都沾沾自喜地认为这些工作永远不可能实现自动化。
人工智能的潜在危害通常被称为“白领启示录”,因为律师和其他知识工作者的工作将面临自动化的风险。
今年5月,英国电信宣布,到2030年,它将裁员5.5万人,成为一家“更精简的企业”,其中1万个工作岗位将被人工智能取代。
与此同时,该行业的先驱IBM已暂停招聘近8000个它认为可能被人工智能取代的工作岗位。
然而,OpenAI在承认ChatGPT将对员工产生重大影响的同时,也认为人工智能将使员工受益,“节省大量时间,完成大部分任务”。
科技界对人工智能的整体影响存在分歧,谷歌创始人拉里·佩奇(Larry Page)将埃隆·马斯克(Elon Musk)对人工智能将摧毁人类的担忧称为“物种主义者”。
然而,就在上个月,日本首相里希?苏纳克(Rishi Sunak)表示,应对人工智能带来的灭绝风险,应该与流行病和核战争一样,成为全球优先考虑的问题。
在首届英国人工智能安全峰会上,他警告说,人工智能“可能会使制造化学或生物武器变得更容易”,并表示恐怖组织可能会利用它“在更大范围内传播恐惧和破坏”。他警告说,犯罪分子可能会利用它进行网络攻击,传播虚假信息,实施欺诈,甚至性虐待儿童——这些已经被看到了。
苏纳克先生补充说:“在最不可能但极端的情况下,人类甚至有可能完全失去对人工智能的控制,这种人工智能有时被称为‘超级智能’。”
甚至Open AI本身也成立了一个团队来关注与“超级智能”AI相关的风险。
像人类一样聪明的人工智能也被称为“通用人工智能”,但专家们对这种情况何时发生存在分歧。
一些人认为我们永远不会看到它的诞生,而另一些人则认为它迫在眉睫。谷歌工程总监雷·库兹韦尔(Ray Kurzweil)是一位以预测准确性著称的未来学家,他认为,到2029年,人工智能将和人类一样聪明,而奇点将在2045年出现。
然而,德比大学(University of Derby)分析与治理高级讲师理查德?赛尔夫(Richard Self)仔细分析了ChatGPT背后的技术,认为它不会很快导致像人类一样聪明的人工智能的出现。
他告诉Metro.co.uk:“这些大型语言模型现在被吹捧为接近人工智能——软件中的人类认知能力。”
“我对此最大的问题是,法学硕士系统通常会弥补他们的部分——如果不是全部的话。这种错误的根本原因是变压器(法学硕士的基石)存在缺陷。
他说,变形金刚是ChatGPT等人工智能模型的支柱,使它们能够处理一系列单词并产生响应。然而,这些不能保证是准确的,并且容易产生完全虚构的信息,它标榜为事实,被称为幻觉。
这些错误现在非常普遍,以至于《剑桥词典》将“hallucinate”选为年度词汇。
从短期来看,ChatGPT在说实话方面的问题可能会成为人工智能崛起为全球主导地位的主要障碍之一。
Mozilla总裁兼执行董事马克·苏曼(Mark Surman)呼吁实施严格的监管措施,以“防范与人工智能相关的最令人担忧的可能性”。
正是这些规则将决定人工智能是征服人类,还是仅仅帮助我们写电子邮件和做一些无聊的工作,我们都很乐意把这些工作交给我们的机器人下属。
苏曼告诉Metro.co.uk:“在过去的一年里,Open AI的ChatGPT已经证明了自己既是生产力的巨大繁荣,也是一个令人担忧的自信的错误信息提供者。”
ChatGPT可以帮你写代码、写求职信、通过法律考试,但它提供不准确信息的自信程度令人担忧。
“当我们进入这个勇敢的新世界时,甚至朋友的Snapchat信息都可以由人工智能编写,我们必须了解聊天机器人的能力和局限性。”
“如何利用这项技术取决于我们自己的教育。”
因为如果你相信炒作,也许有一天它将不再被利用。
马斯克:人工智能可能会杀死我们所有人。马斯克:我的新人工智能聊天机器人Grok很搞笑
更多:ChatGPT的创作者组成了“终结者”团队,以保护人类免受人工智能的毁灭
更多:近400名大学生因使用ChatGPT抄袭作业而被调查