降低人工智能灭绝的风险,应该与其它社会规模的风险(如大流行病和核战争)一样,成为全球的优先事项。就在刚刚,AI 领域传出一封重要的公开信。包括 “ChatGPT 之父”Sam Altman 在内 350 位 AI 权威都签署了这封联名公开信,并对当前正在开发的 AI 技术可能会对人类构成生存威胁担忧。这封信只有一句声明:降低人工智能灭绝的风险,应该与其它社会规模的风险(如大流行病和核战争)一样,...
网页链接降低人工智能灭绝的风险,应该与其它社会规模的风险(如大流行病和核战争)一样,成为全球的优先事项。就在刚刚,AI 领域传出一封重要的公开信。包括 “ChatGPT 之父”Sam Altman 在内 350 位 AI 权威都签署了这封联名公开信,并对当前正在开发的 AI 技术可能会对人类构成生存威胁担忧。这封信只有一句声明:降低人工智能灭绝的风险,应该与其它社会规模的风险(如大流行病和核战争)一样,...
网页链接
精彩评论