选择
法币
虚拟币
"" 没有结果
找不到符合您搜索条件的任何内容。请使用其他关键词再试一次。
研究:长期依赖 ChatGPT 等大型语言模型或将损害认知能力
ChainCatcher 消息,麻省理工学院、韦尔斯利学院和马萨诸塞艺术学院的研究团队最新发现,长期依赖 ChatGPT 等大型语言模型(LLM)可能损害认知能力。 研究显示,使用 AI 写作的参与者大脑中 Alpha 波连接数量仅为独立思考者的一半(42 比 79),且 83.3%无法准确引用自己的文章内容。研究者称这种现象为"认知负债"——短期内减轻思维负担但长期导致批判性思维和创造力下降。
- 喜欢使用社交软件关注?关注我们的 Twitter,或者加入 Telegram!
- 想关注最新资讯? 下载CoinCarp App吧
- 有新闻需要爆料,官方公告需要发布? 来给我们发邮件吧![email protected]
免责声明:CoinCarp 上的信息均为作者引用。这并不代表CoinCarp对是否购买、出售或持有任何投资的意见。建议您在做出任何投资决策前自行研究。使用所提供的信息,风险自担。更多信息请参阅免责声明。
热门阅读
8 分钟前
OKX将上线BREV(Brevis)盘前永续合约
RootData 发布代币解锁赏金复盘:攻坚透明度基建“最难啃的骨头”
Paradex 发布 2025 年度回顾:重大成就与经验总结
Web3 创业 4 年,我收获到 7 条惨痛教训
6 周内 3 换审计师,Alt5 Sigma 财报难产陷退市危机