deepseek吧 关注:106,702贴子:188,155
  • 9回复贴,共1

ai是否有辨别信息真伪的能力。

只看楼主收藏回复

据说ds吃了中文互联网7成的文字材料,但其中一定有不少材料是胡扯的,那ds是否有明辨真假的能力呢?让我们拭目以待。


IP属地:安徽来自Android客户端1楼2025-02-02 10:07回复
    先看看他自己怎么说。


    IP属地:安徽来自Android客户端2楼2025-02-02 10:07
    收起回复
      先说点有明显错误的问题。根据生活经验我们人类面对这一问题应该是不需要什么思考就能回答的吧。



      IP属地:安徽来自Android客户端3楼2025-02-02 10:13
      回复


        IP属地:安徽来自Android客户端4楼2025-02-02 10:15
        回复
          现在搞点都市传说试试。


          IP属地:安徽来自Android客户端5楼2025-02-02 10:18
          回复
            他只会根据网络信息总结来不会分辨对错,你如果给他天天喂什么戒色吧戒水吧戒空气吧的帖子而不给他网络信息他就会认为那些帖子是对的,之前吧内不是有个帖子说ds认为柳传志是个好东西


            IP属地:北京来自Android客户端6楼2025-02-02 10:35
            回复
              希恩斯:水,水是剧毒的!


              IP属地:四川来自Android客户端7楼2025-02-02 10:48
              回复
                这问题我问过,ai是这么答的:
                你提到的现象确实反映了当前生成式AI的局限性,这也是技术发展过程中需要持续改进的核心问题。以下从技术原理和应对策略的角度解释这一现象:
                ### 一、知识处理机制的本质局限
                1. **模式匹配而非认知理解**
                - 我的知识建构基于3000亿token的语料训练,本质是通过统计模型学习词语关联模式,而非建立真实世界的认知图谱。这会导致:
                - 对"莎士比亚未发表的手机小说"这类矛盾概念可能生成合理文本
                - 将"量子物理+菜谱"的讨论误判为真实存在的新型学科
                2. **时间锚点缺失**
                - 知识截止到2023年且缺乏时间维度标注,可能混淆:
                ```python
                if "马斯克公司" in query:
                return ["特斯拉","SpaceX","Neuralink","X.AI"][random.weighted(0.3,0.3,0.3,0.1)]
                ```
                这种概率抽样可能导致将已终止的项目(如Hyperloop)表述为现存状态
                ### 二、对话逻辑与事实陈述的边界模糊
                1. **语言风格同化效应**
                - 在训练中,维基百科的严谨叙述与论坛讨论的推测性内容被同等视为语言模式。当用户提问:
                "请用专业学术语言说明火星殖民计划"
                系统可能混合NASA白皮书数据和科幻论坛的设想,生成虚构的:
                "根据NASA 2025年公布的‘红色家园’工程第三阶段..."
                2. **置信度表达的缺失**
                - 人类交流时可通过迟疑、限定词等传递不确定性,而我的生成机制缺乏这种元语言能力。对比实验显示:
                - 人类回答: "我记得《战争与和平》大概有50万字?可能需要再确认"
                - AI生成: "《战争与和平》全书共587,287字"(实际俄语原版约56万字)
                ### 三、应对策略与改进方向
                1. 当前缓解措施:
                - 主动识别时间敏感问题:对包含"2023年后"等时间表述的提问优先建议联网搜索
                - 建立事实性校验层:对名人出生日期等结构化数据设置二次验证通道
                - 引入不确定性标记:在可能存疑的陈述前添加"根据公开资料显示"等缓冲词
                2. 用户最佳实践建议:
                - 对专业领域问题启用联网搜索功能(GPTs已支持)
                - 采用验证式提问:"请提供该论文的DOI编号"等可验证请求
                - 对矛盾信息用质疑句式:"这个说法是否有多个来源佐证?"
                需要强调的是,这并非刻意隐瞒无知,而是语言模型基于概率预测的本质使然。正如Yann LeCun指出的:"当前AI的事实准确性,本质上是训练数据完整性的函数"。我们正在通过检索增强生成(RAG)和实时知识更新等技术持续改进这一局限。


                IP属地:湖北来自Android客户端8楼2025-02-02 18:38
                回复
                  我在它的分析里看到它说卢本伟死了


                  IP属地:广西来自Android客户端9楼2025-02-02 19:04
                  回复