免责声明:今日财经所有资讯仅代表作者个人观点,不构成任何投资理财建议。
    人类精英呼吁暂停 AI 实验 ChatGPT:合理但谨慎考虑
    2023-03-30 11:05:00 pv / 分享快讯

    3月29日,非营利组织“未来生命研究所(Future of Life Institute)”发表了一封题为“暂停巨型AI实验”的公开信,呼吁全球的AI实验室暂停训练比GPT-4更强大的系统至少6个月,并在此期间开发出一份针对AI的共享安全协议,必要时需要政府介入。

    1000多名科技人士在这份公开信上签名,包括特斯拉CEO马斯克、Stability AI的CEO Emad Mostaque等企业掌门人,也包括Alphabet旗下DeepMin的研究人员,还有诸如图灵奖得主Yoshua Bengio这样的重量级学者。当然,也有人表达了不同意见,认为这是在阻碍技术进步。

    开发出GPT-4模型的OpenAI公司内还没有人签名,该公司目前也没有对这封公开信予以回应。但我们向卷入纷争中的ChatGPT要了个回应。

    这个AI自然语言大模型产品倒是表现出了善解人意的一面:暂停实验存在合理性,但需要谨慎考虑这么做带来的技术发展滞后问题。它还给出了关于AI的六大风险和十个管理制度建议。

     

    人类精英:暂停实验 确立规则

    截至今日,挂在“未来生命研究所(FLI)“官网上的《暂停巨型AI实验》公开信,已经收集了1130人的签字,名单里精英云集,不乏特斯拉、苹果等科技公司的高管,也有政客和作家,当年,更多的是全球多所高校的教授以及人工智能领域的专家。

    那么精英云集签字的这封公开信到底说了什么?以下是这封信的全文(向上滑动启阅)

    广泛的研究表明,具有能与人类竞争的智能的AI系统会对社会和人类构成深刻的风险,顶尖的AI实验室也承认这一点。正如广受认可的阿西洛马人工智能原则(Asilomar AI principles)原则所述,高级AI可能代表着地球生命历史的深刻变化,应该以合适的态度和资源去进行规划和管理。不幸的是,这种水平的规划和管理并没有发生。尽管最近几个月AI实验室陷入了一场失控的竞赛,以开发和应用越来越强大的数字思维,然而没有人能够理解、预测或可靠地控制这些思维,甚至他们的创造者也不能。

    当代AI系统在一般任务上正在拥有与人类竞争的能力,我们必须问问自己:

    我们应该让机器在我们的信息渠道中充斥宣传和谎言吗?

    我们是否应该自动化所有的工作,包括那些有成就感的工作?

    我们是否应该培养出可能比我们数量更多、比我们更聪明、最终超越并取代我们的非人类思维?

    我们是否应该冒着失去对我们文明控制的风险?

    本文地址: - 今日财经

    免责声明:本文仅代表作者本人观点,与今日财经立场无关。本站所有内容不构成投资建议,币市有风险、投资请慎重。