模仿人类才是最安全的,超越人类太可怕了!
作为AI控,非常期待中低阶AGI(未来30年一定可以实现,辅助人类,帮助人类成就更好自己)
但完全不期待高阶AGI(干嘛要让机器人超越甚至控制地球人?)
环球商务客
模仿人类才是最安全的,超越人类太可怕了!
作为AI控,非常期待中低阶AGI(未来30年一定可以实现,辅助人类,帮助人类成就更好自己)
但完全不期待高阶AGI(干嘛要让机器人超越甚至控制地球人?)
此博文来自论坛版块:军事天地(Military)
© 2024newmitbbs.com
Theme by Anders Noren — Up ↑
除非我自己变成机器人,那我就期待超高级AGI奴役地球人,哈哈哈哈