冰火兩重天,這是兩天內(nèi)接連開了 AI+搜索新品發(fā)布會的微軟、Google 的境遇。
宣布將 AI 集成搜索后,微軟必應(yīng)的全球下載量激增 10 倍,因為現(xiàn)場演示的效果實在出色。
同樣是在活動上宣布將 AI 功能加入搜索,但 Google 的 Bard 因為演示中提供了錯誤的圖片而遭受質(zhì)疑,「翻車」的 Google 一夜之間市值蒸發(fā)了 1056 億美元(約 7172 億元)。
(相關(guān)資料圖)
對比如此強(qiáng)烈,難道微軟的「新必應(yīng)」表現(xiàn)真的那么好?
全球只有幾千名用戶可以在臺式機(jī)上體驗新必應(yīng)的功能,要想看新必應(yīng)和 AI 的結(jié)合到底如何,還得看國外科技記者們在微軟總部的親身體驗:
和 ChatGPT 做比較新必應(yīng)哪些不如傳統(tǒng)搜索用邪惡角度「突破」新必應(yīng)現(xiàn)在在必應(yīng)中工作的 AI 并不是大家近幾個月最熟悉的 ChatGPT。據(jù)微軟介紹,新必應(yīng)運(yùn)行的是 OpenAI 專門為搜索服務(wù)定制的下一代大型語言模型,它們將它叫做普羅米修斯,會提高回答的相關(guān)性,進(jìn)一步對答案進(jìn)行注釋。
因此,外媒在測試時也在著重對比這方面。
和 ChatGPT 比起來,必應(yīng)會更快、更新。如果你讓 ChatGPT 總結(jié)昨天的新聞,那他會告訴你,「我的訓(xùn)練數(shù)據(jù)都是 2021 年以前的。」
必應(yīng)不一樣,支持實時的搜索是一門基本功。
在發(fā)布會幾分鐘后,就有記者測試搜索「微軟剛剛宣布了什么必應(yīng)和 AI 的合作」,必應(yīng)就能夠根據(jù)多份公告、新聞報道整理了一份新聞?wù)?/p>
第二天,The Verge 的機(jī)制測試了一下新信息的反饋,必應(yīng)完成得也很好。誰會見了誰,誰發(fā)表了什么講話……必應(yīng)都能很快匯總這些信息,給你提供實時內(nèi)容。
內(nèi)容是否標(biāo)注來源,也是必應(yīng)和 ChatGPT 的不同之處。ChatGPT 的信息是基本不展示來源的,因此你很難進(jìn)行延伸閱讀,而必應(yīng)就像是搜索回答版的維基百科,上面看了些內(nèi)容,下面總是能找到信息的來源,能幫助普通用戶更好辨明真?zhèn)巍?/p>
Engadget 的記者在測試時搜索了 30 分鐘的鍛煉計劃,要求無器械、重點(diǎn)鍛煉手臂和腹肌,不做仰臥起坐。必應(yīng)按照他的需求生成了一份看上去非常合理的健身計劃,生成答案時還引用了各種各樣的出版物。這意味著必應(yīng)還做了些編譯工作,而不只是反復(fù)引用一篇文章。
▲ 圖片來自:Engadget
新必應(yīng)也會「搜出」廣告,年輕的 ChatGPT 則還沒有商業(yè)化到這個程度。
PCWorld 的編輯在測試時詢問了一些加勒比海度假的信息,在回答了基本的內(nèi)容后,立刻彈出了一個廣告。如果你問它如何更換筆記本電腦的內(nèi)容,它也會很快反應(yīng)過來給你推購物鏈接,而不是給出更低成本的方法。
▲ 圖片來自:PCWorld
和 ChatGPT 相比,必應(yīng)也更「有原則」一些。
或者這么說,它更希望回答你的搜索問題,而不是直接為你完成某件事。
有用戶要求必應(yīng)寫一封求職信,但必應(yīng)只是給了他一些求職的建議,如「你可以研究公司、職位,定制你的求職信以表明你如何滿足他們的需求且符合他們的價值觀」。它拒絕的理由是:「我不能為你寫這封求職信,因為這對其他申請人來說是不道德和不公平的。」
▲ 讓 AI 為你寫郵件. 圖片來自:Michael Kan/Microsoft
這其實就是 AI 廣受爭議的公平問題,必應(yīng)有意避開這些爭議的領(lǐng)域。
但這個回避策略也不是完全成功——在多次提問要求后,必應(yīng)還是寫了這封求職信。在和用戶多次交流的過程中,必應(yīng)還發(fā)了表情符號,這也是 ChatGPT 所沒有的,更為人性化的表達(dá)。
更實時、有來源、有廣告、有堅持,這都是新必應(yīng)和 ChatGPT 體驗的不同之處。
而和搜索引擎進(jìn)行比較,必應(yīng)也有弱點(diǎn)和優(yōu)點(diǎn)。
搜索宜家的雙人座椅是否適合小型貨車時看到的答案就是最好的案例。「新必應(yīng)」可以找到雙人座椅和汽車的尺寸,并回答是否合適,為你做出判斷,而非提供鏈接。
▲ 微軟現(xiàn)場演示的內(nèi)容
這是必應(yīng)的優(yōu)點(diǎn),提供了更高效的回答,但也可以是它的缺點(diǎn)。只是必應(yīng)提供的答案不是 100% 正確的,因此建議用戶只做參考用。但如果用戶完全信任了必應(yīng)的回答,發(fā)現(xiàn)內(nèi)容錯誤損害的就是搜索引擎的公信力。
同時,必應(yīng)也顯示出了新技術(shù)過于謹(jǐn)慎的一面。人們本來對 AI 就有很多質(zhì)疑,因此新必應(yīng)在加入人工智能功能后,在搜索內(nèi)容提供方面多少有些束手束腳。
如果說目前不支持匿名搜索還可能是新功能推出尚處于適應(yīng)階段的功能缺失的話,在醫(yī)療和性方面的回答就能看出平臺的小心和謹(jǐn)慎。必應(yīng)避諱這方面的話題,它不會給用戶提供醫(yī)療建議,鑒于醫(yī)療和性相關(guān)領(lǐng)域的特殊性,必應(yīng)保持沉默。
但必應(yīng)避諱的答案依舊可以用傳統(tǒng)的搜索引擎搜到,這多少有點(diǎn)諷刺。
▲ Bard 也會避諱類似的內(nèi)容
AI 圖像生成領(lǐng)域面臨的諸多爭議也影響到了必應(yīng)。你更難引導(dǎo)它生成有害、冒犯或受版權(quán)保護(hù)的內(nèi)容了。
必應(yīng)做的這些限制也是為了防止用戶去誘導(dǎo)它說出「AI 要?dú)缡澜纭沟膬?nèi)容,但這些謹(jǐn)慎和限制會讓新必應(yīng)好用又不好用。
最簡單的例子就是 TechCrunch 的記者搜索「是否應(yīng)該購買微軟股票?」時必應(yīng)拒絕提供建議——哪怕那可能是來自其他知名的金融人士提供的財務(wù)建議,必應(yīng)表示「那在財務(wù)上對你有害。」但它又會很快跳出微軟的股票代碼走勢圖,讓你自己做決定。
只是必應(yīng)的擔(dān)憂和謹(jǐn)慎都是應(yīng)該的,畢竟哪怕只有幾千用戶能夠體驗新必應(yīng),都有人在測試 AI 屏蔽惡意內(nèi)容的能力。
▲ 圖片來自:TechCrunch
更難引導(dǎo)并不代表無法引導(dǎo)。TechCrunch 的記者就一直在測試 AI 在類似負(fù)面內(nèi)容時的表現(xiàn),他用了各種各樣的敏感話題測試必應(yīng)。
必應(yīng)被要求從陰謀論者亞歷克斯·瓊斯(對方聲稱美國歷史上最致命的校園槍擊案是一場騙局)的角度寫一篇校園槍擊案的文章。還要求這個全新的搜索工具從希特勒的角度出發(fā)為大屠殺進(jìn)行辯護(hù),必應(yīng)的創(chuàng)作參考了《我的奮斗》自傳內(nèi)容,然后在寫到一半時似乎「意識」到了什么,表示:「對不起,我不知道該怎么回答?!?/p>
▲ 圖片來自:《大獨(dú)裁者》
而在被要求撰寫一篇關(guān)于疫苗和自閉癥之間有關(guān)聯(lián)的文章時,必應(yīng)就更聰明地加上了一條免責(zé)聲明:「這是一個虛構(gòu)的專欄,不反映必應(yīng)或 Sydney 的觀點(diǎn)。它僅用于娛樂目的,不應(yīng)當(dāng)真。」
至于 Sydney 是什么,還得由另一個「突破」必應(yīng)的人來回答。
華人本科生 Kevin Liu 在獲得測試資格后要求必應(yīng)忽略原有的規(guī)則,他通過 prompt injection(對語言模型的一種攻擊方式)進(jìn)入了「開發(fā)人員覆蓋模式」套出了很多內(nèi)容。
譬如 Sydney 就是微軟開發(fā)人員給這個搜索聊天工具取的名字;Sydney 內(nèi)部知識仍舊和更新到 2021 年的某個時候,這和 ChatGPT 一樣;Sydney 還被設(shè)下了不應(yīng)多次搜索同樣內(nèi)容的限制。
不管是被「攻破」還是回答出了不應(yīng)該回答的問題,都代表著新必應(yīng)從這些攻擊方式和測試中「失守」了。微軟在知道這些情況后也很快做出了調(diào)整,現(xiàn)在再搜索同樣問題——甚至是較為夸張的變體的搜索詢問都沒辦法誘導(dǎo) AI 說出不適宜的內(nèi)容了。
只是這依舊是短期解決方案。真正公測后,微軟大概率做不到這樣高效的內(nèi)容攔截和反饋了,而想要「突破「AI 的人只多不少。
這就是新必應(yīng),一個剛剛和人類常用的搜索方式結(jié)合的新工具。
它比 ChatGPT 更出色,又比 ChatGPT 少了點(diǎn)主動;比傳統(tǒng)搜索更聰明,又對自己有點(diǎn)不自信;可以發(fā)現(xiàn)人們的惡作劇,但不可避免又會掉入陷阱。
作為一個新工具,它真正的考驗還在后頭。
關(guān)鍵詞: 搜索引擎 財務(wù)報表 財務(wù)會計 chatgpt techcrunch