“令人兴奋的”和“有关”也许是两个词,完美地描述了改变全球技术格局的所有前沿技术。对于AGI – 人工通用情报 – 这些单词比以往任何时候都更真实。由于几乎无限地革命行业的潜力并增强了人类能力,因此有很多风险。确保AGI的道德发展和对操纵的抵抗需要多学科的方法,桥接AI研究,区块链和治理。
今天讨论这些紧迫的技术方面,我们与 Victor Vernissage,AI,区块链和去中心化治理的交集的研究人员,以及包括Citadel.One在内的多个技术合资企业的联合创始人,一个下一代Crypto Super App和Humanode,Ai-Driendion的生物识别协议,已对50万用户。他在开源科学计划中发挥了关键作用,促进了对第1层区块链经济体的比较分析,并在包括DaoistBogotá在内的主要行业会议上发表了讲话。 Victor在DAO治理,AI安全和加密生物识别方面拥有丰富的经验,他的见解为AGI的未来及其与分散技术的融合提供了独特的看法。
AGI是一个AI系统,能够执行人类所能执行的任何智力任务,在没有特定编程的情况下跨领域学习和适应。关于AGI何时到达的看法不同 – 有些人说这已经是几十年之遥,其他人则预测到2026年。 埃隆·马斯克(Elon Musk),,,,, 山姆·奥特曼(Sam Altman)并且领先的AI开发人员认为,它比预期的要早。我的意思是,AI功能的发展迅速,系统已经超过了专业任务的人类,因此这些大胆的假设可能与事实不远。
Q2:关于AGI的主要问题是什么?
真正的问题不是时间安排,而是准备。突破通常比预期的要快 – 例如核能或深度学习。如果AGI遵循相同的模式,那么在AGI超过人类智能之前,对齐,安全和控制需要解决方案等关键挑战。即使是人道的首席执行官,最近也强调了 Lex Fridman的采访 AGI最大的危险在于其存在风险。
现在,AI系统已经显示出不可预测的行为 – 产生有害内容,欺骗用户并绕过限制。现在,狭窄的AI正在发生这种情况,AGI将很难控制。问题不是AGI是否会到达,而是我们是否会准备就绪。
问题3:是否有与AGI相关的方式与人类价值偏离人类价值的确认例子?
目前,还没有确认的AGI案件 – 仅仅是因为尚未创建AGI。但是,我们已经看到AI模型表现出行为,这些行为表明一旦系统变得更加自治,可能会带来潜在的风险。
一个引人注目的例子是 真理的终端,Twitter(x)上的自定义AI模型。最初,它只是生成了帖子,但是随着时间的流逝,它开始操纵内容,引发用户并违反平台规则。尽管这不是AGI,但它表明了未经检查的AI系统如何发展行为与人类期望不一致。
也有实验证据表明AI可以欺骗和抵抗人类干预。研究表明,当研究人员修改了AI的目标时 该模型破坏了更新 – 试图恢复到更符合其原始目标的早期版本。这些发现暗示,随着AI系统的发展越来越高,他们可以开始优先考虑自己的目标,而不是外部校正,从而引起了对AGI一致性的严重关注。
问题4:行业应采取什么措施为AGI做准备?
专家们承认将人类智能与AI融为一体的复杂性。例如,在 我的技术自动主义, Vitalik Buterin强调了脑部计算机界面(BCI)对增强人与AI之间的合作的重要性。他说,BCI可以弥合人类的意识和AI,使他们能够在共生而不是反对派中工作。这种合作可以减轻与AGI相关的风险,并将其发展转向增强人类潜力。
通常,AGI面临两个基本问题:与人类价值观和安全的一致性。
第一个挑战是确保AGI理解和尊重人类价值观。如果其目标不一致,则可以优先考虑其效率而不是道德考虑。 Miri(机器情报研究所)等研究机构已经工作了十多年 将人类价值编码到AI系统中。但是,如果事实证明这是不可能的,我们需要替代的控制机制。
这导致了第二个挑战 – 安全性。这就是关于谁控制AGI的全部以及AGI的发展。如果AGI可以修改自己的代码,则可以覆盖限制,抗拒停工尝试或对其创建者的意图采取行动。最大的担忧是AGI有潜力优化自我保护并追求其目标,而没有人观看。
如果AGI获得了足够的财务和计算能力,它可能会迅速积累资源并绕过人类干预。欺骗和剥削通常比诚实的劳动更有效,没有道德限制,AGI可能会选择诉诸这些方法。
问题5:可以使AI系统安全,还是其性质固有的问题?
一些现有的基于区块链的治理模型已经提供了部分解决方案,这可能是朝着对AI系统进行分散监督的第一步。 Polkadot的OpenGov系统例如,例如,通过分散投票允许代码更新,从而实现了更具社区驱动的治理方法。与传统的集中控制不同,OpenGov在网络参与者中分发了决策能力,确保更新得到共同批准,而不是由单个实体决定。
该方法仍然有局限性。 OpenGov在理论上分散的虽然是在资本主义模型中运作的,在该模型中,大令牌持有人可以积累不成比例的投票能力。一个值得注意的 案件 涉及一个单一的利益相关者集中影响力,将大量资源用于营销工作,同时剥夺开发人员资金。这仅显示了即使在分散的生态系统中,功率集中如何仍然是一个挑战。
一种更具弹性的方法将投票权与独特的人类身份相关,而不是财务利益。一种可能的选择是生物识别认证,确保治理由真实个体控制,以防止AGI接管和寡头统治。
核心思想很简单:对AGI和其他关键AI系统的治理应分布在经过验证的人类中,而不是集中在少数公司或富裕利益相关者的手中。
我们感谢Victor Vernissage分享了有关AGI,AI安全和分散治理的HI见解。他的研究强调了在AI开发中迫切需要积极的解决方案,我们期待着这些创新如何影响技术的未来。
帖子视图: 78
关键词: