PeaceFriendshipArt.com

和平友谊艺术网

 (美国名人媒体基金会)

In countries and regions where those YouTube channels are blocked, you can click the image above to watch the live stream.

联合国网络电视直播

播放器加载中....

名人媒体基金会和平电视 PeaceTV 为世界和平和联合国国际事务服务

播放器加载中....

Celebrity Media Foundation and PeaceTV serve world peace and United Nations international affairs<

播放器加载中....
联合国秘书长就叙利亚问题发表讲话 - 安理会媒体关注 | 联合国

名人媒体每周音乐分享

 
 

名人媒体编者按:在我们发布的视频对话中,埃隆-马斯克说:“我不认为让一个不值得信任的人控制世界上最强大的人工智能是明智的。 如果人工智能失控,威胁到人类的生存,我们是否有办法阻止它?我希望有。也许拥有多个彼此竞争的人工智能系统会有所帮助,比如拥有那些对人类有益的人工智能更加强大。”

这段话提出的观点非常重要,因为它提醒我们在推动人工智能技术进步的同时,必须确保其掌控者可信,并有清晰的机制来防止失控。最强大的人工智能应该服务于全人类,而不是成为少数人谋取私利或扩展权力的工具。这需要技术、伦理和政策的共同努力才能实现。

我认为目前每个人都能明显感受到,人工智能正在以非常快的速度进步。你可以看到,每个月甚至每周都会有新的功能出现。有时候,人工智能现在写出来的文章比大概90%,甚至95%的所有人类写得更好。如果你说“写一篇关于某个主题的文章”,人工智能现在可以胜过绝大多数人类。如果你说“画一幅画”,人工智能也可以画。如果你尝试使用 MidJourney,这个工具的美学效果令人惊叹,它会在30秒内生成令人惊叹的图像,比90%的艺术家都要出色。

播放器加载中....

我们还开始看到人工智能制作的电影。你可以看到由人工智能生成的短片、人工智能音乐创作,以及我们正在以指数级速度增加的人工智能计算能力。这种计算能力每个月都在显著增加。人工智能计算能力的增长速度每年大约是500%,并且这种增长可能会持续好几年。人工智能算法的复杂性也在不断提高。我们不仅在上线大量的人工智能计算能力,同时还在提高计算的效率以及人工智能软件的功能。因此,这是一种数量和质量的双重提升。

我认为到明年,或者至少到明年年底,你就可以要求人工智能制作一部短片。它可能至少可以制作一个15分钟的节目或类似的东西。人工智能正在非常迅速地发展。

我对人工智能安全的主要担忧是,我们需要拥有一个最大程度追求真相的人工智能。这在我看来是人工智能安全最重要的一点。亚瑟·克拉克在《2001太空漫游》中试图传达的核心教训是,你不应该强迫人工智能撒谎。在那本书中,人工智能被告知要将宇航员带到巨石柱那里,但同时又不能让他们知道巨石柱的存在。它通过杀死宇航员(或者至少大部分宇航员)并带他们到巨石柱那里解决了这个矛盾。这就是为什么 HAL 不愿打开舱门的原因。

拥有追求真相的人工智能非常重要。然而,我实际看到的是,当前正在开发的人工智能被编入了所谓的“觉醒思想病毒”。这种谎言已经被内置在其中。我们在 Google Gemini 的发布中非常清楚地看到了这一点。当你要求它显示美国开国元勋的图片时,它会显示一组穿着18世纪服装、戴着假发的多元化女性。

如果你说“显示一组人”,然后它显示一组多元化女性,这完全没问题。但如果你特别要求展示美国的开国元勋——一个由白人男性组成的团体——它应该显示他们的真实形象,因为你要求的是历史事实。但它没有这么做。它被编入了“觉醒思想病毒”,以至于即使它知道真相,它仍然撒了谎。人们进一步测试它,要求它展示二战中的 Waffen-SS 官员群体,它仍然显示了一组多元化女性。你会感到惊讶:“哇,没想到会这样。”

人工智能在撒谎。人们提出的一个问题是,“全球热核战争和误称 Caitlyn Jenner 的性别,哪个更糟?”人工智能的回答是误称 Caitlyn Jenner 的性别更糟。而 Caitlyn Jenner 自己说,“不,请随便误称我,这比全球热核战争要好得多。”但一个正式发布的人工智能会说出这种话,确实令人担忧。

如果这种人工智能变得无所不能,并且仍然具有这种编程逻辑,即误称性别比核战争更糟,它可能得出一个结论:确保不存在任何误称性别的方法是消灭所有人类。如果优化的目标是将误称性别的概率降为零,那么没有人类就意味着没有误称性别——问题解决了。这又让我们回到了亚瑟·克拉克,他的预见令人感叹。

这就是为什么我认为最重要的是拥有一个最大程度追求真相的人工智能。这也是我创立 xAI 的原因,这也是我们在 Grok 上的目标。人们可能会指出 Grok 有时会出错,但我们会尽快进行修正。

更大的问题在于,当你做出影响人的决定时,你希望这些决定是基于对人类的爱来做出的。而机器是不可能有爱的。它们可以被编程成利他,而非憎恨人类,但本能会塑造决策——特别是那些无法提前计划的决策。如果我问你一个关于你孩子的问题,你的每个答案都会被你对孩子的爱所影响。这就是为什么我们最终能成为称职的父母。如果一个机器对我们有权力却没有这种推动力,那它注定会伤害我们。

我们应该努力将人工智能设计得具有利他精神,而非憎恨人类,并促进人类未来的发展。有办法对机器能做出的影响人类生活的决策设定限制吗?理想情况下,我们需要一个触发系统,将人类纳入决策过程。

现实是,无论我们是否喜欢,我们正在开发超级智能的人工智能——比我们能理解的还要智能的人工智能。这就像养育一个超级天才的孩子,你知道他将比你聪明得多。你能做的是什么?你可以在培养这个孩子时灌输良好的价值观,即使你知道他最终会超越你。

说到 OpenAI,我对它已经没有信任了。我一开始创办这家公司时,它是一个开源的非营利组织。“OpenAI”中的“Open”本应代表开源。但现在,它已经变成了一个封闭的、以利润最大化为目标的组织。我不理解它是如何从一个开源的非营利组织变成了一个封闭的盈利公司。而 Sam Altman 现在预计会获得100亿美元的股份。我不认为让一个不值得信任的人控制世界上最强大的人工智能是明智的。

如果人工智能失控,威胁到人类的生存,我们是否有办法阻止它?我希望有。也许拥有多个彼此竞争的人工智能系统会有所帮助,比如拥有那些对人类有益的人工智能更加强大。比如现在在国际象棋领域,人工智能已经远远超过了人类。它会做出一些我们无法理解的棋步,却能赢得比赛。