即使标题听起来更像是科幻小说,对于与技术不太联系的人来说,如果不受控制,人工智能也会导致人类消失。
在2023年4月之后,埃隆·马斯克(Elon Musk)和其他技术专家谈到了 人工智能可以产生的一般危险 在社会层面上,最大的公司的老板(首席执行官)的转变是开发人工智能,通过公开信件发出警报。
非营利组织发起的公开信的350个签署者中 “Center For AI Safety” ((CAIS),Count:公司首席执行官Sam Altman OpenAI,公司负责人 AI DeepMind, Antrophic 还有来自Microsoft的董事Google,他们还开发了广泛的人工智能语言。
他们加入了该领域的一群研究人员和老师,表达 担心人工智能会导致人类消失 如果政治决策者不会认真对待这个问题。
公开字母显示了全球人工智能不规则性的影响,可能导致损害损害作为核战争或完全失控的损害。
人工智能会导致人类消失吗?
决策者很可能会及时醒来,并寻求解决方案来规范这一巨大步骤。当然,在做出决定之前,您必须意识到包装中带有人工智能的好处的风险。
人工智能并不意味着 ChatGPT, Microsoft 365 Copilot 或者 Google Bard。生成人工智能模型用于 药品,研究,机器人技术和自动化,教育,金融,贸易,以及在其他许多领域的帮助。
AI 它也可以用于破坏性目的,这就是担心人工智能会导致人类消失。对社会的操纵是为了在群众之间造成紧张局势,直到能够克服人类智能并自主做出决策的智能武器的发展。这是一种能够单独学习,评估情况和行动的技术。

最大的问题是广泛的语言模型 AI ((LLM)我无法接触任何人。
核裂变是人类带来的巨大一步,既带来利益,也带来了重大危险。核裂变产生的能量是一种巨大的资源,是一个真正的好处,而核武器可能会对人类造成灾难性。另一方面,核燃料和人工智能模型都无法使用。铀U-235)或plutoniu-239会发现没有像计算机可以运行python那样容易的人。
但是,一件事是可以肯定的。 人工智能将导致人类消失,只有人类允许这一点。如果自然力量不能由人控制,那么人工智能仍然可以受到控制(我希望)。
 
			