|
AI的强项应该是逻辑推理、数学运算、语言构造。 但有一个短板:事实抓取和总结。 首先,AI模型是用以前的知识训练出来的,不是实时抓取互联网上的信息。 其次,虽然有些AI模型号称可以实时从互联网上搜索,但搜索的命中率较差,搜到事实以后的理解、判断更差,常常弄不明白事实材料的含义,然后胡乱解读,甚至混淆事实、编造事实。 就好比,你告诉它,苹果是红色,梨子是黄色,现在有个黄的,是什么?它能告诉你是梨子。这就是推理。你让它写一段黄色水果的文章,它能写得很漂亮。 但如果你让它上网搜一下,黄色的水果有哪些,它可能会告诉你,有黄瓜、梨子、香蕉、菊花、向日葵。直到你提醒它,向日葵、菊花不是水果,黄瓜名字里的黄不代表黄瓜是黄色,它才会恍然大悟,感谢你指教。但如果是你不熟悉的知识呢?你就被它骗了。 还有些事实性的东西,我自己用Google一搜就搜到了,问Gemini它却说找不到。但Gemini号称是可以利用Google搜索的。 人们觉得AI很神奇、很强大,我猜主要原因是因为它的语言能力。用莎士比亚、金庸、雨果、曹雪芹、郑渊洁、托尔斯泰、马克吐温的作品训练出来的语言模型,当然可以写出语言极其精美的话,让人误以为语言背后的事实也一样正确、全面。 但语言模型终归是语言模型,背后的机制就是语言单位的概率匹配。如果你喂给它一百万条训练材料,都是类似”鸡蛋和充电器多少罐头松树“这样的内容,然后你问它“鸡蛋和电池多大水桶?”,它就会信心满满地回答你:“松树!”其实它根本不懂这些字是什么意思。 |