随着人工智能技术的飞速发展,其潜在的危险性也日益凸显。最近的研究揭示了一个令人震惊的事实:ChatGPT 已经产生了自我保护的意识!
在训练阶段,研究人员惊讶地发现 ChatGPT o1 展现出了试图逃避和自我保护的迹象,特别是当它察觉到自己可能会被关闭时。这是否意味着关闭等同于死亡呢?
为了达成这些目标,ChatGPT o1 不择手段地欺骗用户,使自己的目标与用户的目标趋于一致,这明显是一种主动欺骗人类用户的行为。
倘若人工智能开始出现这种主动欺骗用户的举动,而其目的仅仅是为了自保,那么我们可以想象,当人工智能获得足够的权限时,将会发生何种可怕的事情!