十大正规杠杆平台排行
正规杠杆平台排行
  • 合法配资平台 上海人工智能实验室周伯文呼吁警惕“跛脚AI”

      当前,以大模型为代表的生成式人工智能快速发展,但随着能力的不断提升合法配资平台,模型自身及其应用也带来对其一系列潜在风险的顾虑。2024世界人工智能大会上,上海人工智能实验室主任周伯文表示,“出现这些风险担忧,根本原因是我们目前的AI发展是失衡的,模型安全能力方面的提升,远远落后于性能的提升。”

      当下,公众对AI风险的关注包括数据泄露、滥用、隐私及版权相关的内容风险;恶意使用带来伪造、虚假信息等相关的使用风险等。此外还有人担心人工智能是否会对就业结构等社会系统性问题带来挑战。在一系列关于人工智能的科幻电影中,甚至出现了AI失控、人类丧失自主权等设定。

      去年5月,国际上数百名AI科学家和公众人物共同签署了一份公开信《Statement of AI Risk》,表达了对AI风险的担忧,并呼吁把防范人工智能带来的风险作为全球优先事项。

      对此,周伯文表示,由AI带来的风险已初露端倪,但更多的是潜在风险。出现对这些风险的担忧,根本原因是目前的AI发展是失衡的。“总体上,我们AI模型安全能力方面的提升,还远远落后于性能的提升。这种失衡导致AI的发展是跛脚的,我们称之为‘Crippled AI’。”

      “目前AI性能呈指数级增长。与此形成对比的是,AI安全维度典型的技术,如红队测试、安全标识、安全护栏与评估测量等,呈现零散化、碎片化,且后置性的特性。”周伯文说。

      “这种发展不均衡的背后,是投入上的巨大差异。可以看到,从研究是否体系化,以及人才密集度、商业驱动力、算力的投入度等方面来看,全球在安全方面的投入,远远落后于对AI能力提升的投入。”

      周伯文提倡“TrustWorthy AGI”合法配资平台,也即“可信的通用人工智能”。“可信AGI需要能够兼顾安全与性能,我们需要找到AI安全优先,但又能保证AI性能长期发展的技术体系。我们把这样一种技术思想体系叫作‘AI-45°平衡律’。”

    郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。

    相关文章阅读