免费很黄无遮挡的视频-国产αv天堂在线观看免费-精品欧美小视频在线观看-4438全国最大色五月丁香

新聞資訊

開源人工智能并不是終極游戲--將人工智能帶入鏈才是|意見

開源人工智能并不是終極游戲--將人工智能帶入鏈才是|意見

分類:新聞資訊 大小:未知 熱度:118 點評:0
發(fā)布:
支持:
關鍵詞:

應用介紹

披露:此處表達的觀點和觀點僅屬于作者,不代表crypto.news社論的觀點和觀點。

2025年1月,DeepSeek的R1超越ChatGPT,成為美國Apple App Store上下載量最多的免費應用程序。與ChatGPT等專有模型不同,DeepSeek是開源的,這意味著任何人都可以訪問代碼、研究它、共享它并將其用于自己的模型。

這一轉變引發(fā)了人們對人工智能透明度的興奮,推動該行業(yè)走向更大的開放。就在幾周前,即2025年2月,Anthropic發(fā)布了Claude 3.7十四行詩,這是一個混合推理模型,部分開放用于研究預覽,也放大了圍繞可訪問人工智能的對話。

然而,雖然這些發(fā)展推動了創(chuàng)新,但它們也暴露了一個危險的誤解:開源人工智能本質上比其他封閉模型更安全(也更安全)。

承諾與陷阱

DeepSeek的R1和Replit最新的編碼代理等開源人工智能模型向我們展示了可訪問技術的力量。DeepSeek聲稱其系統(tǒng)的建造成本僅為560萬美元,幾乎是Meta Lama模型成本的十分之一。與此同時,Replit的Agent在Claude 3.5十四行詩的推動下,允許任何人,甚至是非編碼人員,根據(jù)自然語言提示構建軟件。

其影響是巨大的。這意味著,基本上每個人,包括小型公司、初創(chuàng)公司和獨立開發(fā)人員,現(xiàn)在都可以使用這種現(xiàn)有(并且非常強大)的模型來構建新的專業(yè)人工智能應用程序,包括新的人工智能代理,成本低得多,速度快,總體上更容易。這可能會創(chuàng)造一個新的人工智能經(jīng)濟,模型的可訪問性是王道。

開源人工智能并不是終極游戲--將人工智能帶入鏈才是|意見

但開源的亮點--可訪問性--它也面臨著嚴格的審查。正如DeepSeek價值560萬美元的模型所示,免費訪問使創(chuàng)新民主化,但也為網(wǎng)絡風險打開了大門。惡意行為者可以調整這些模型,以比補丁出現(xiàn)更快的速度制作惡意軟件或利用漏洞。

開源人工智能默認并不缺乏保障措施。它建立在幾十年來強化技術的透明度遺產(chǎn)之上。從歷史上看,工程師依賴于“通過模糊來實現(xiàn)安全”,將系統(tǒng)詳細信息隱藏在專有墻后面。這種方法動搖了:漏洞浮出水面,通常是由壞人首先發(fā)現(xiàn)的。開源顛覆了這種模式,將DeepSeek的R1或Replit的Agent等代碼暴露在公眾監(jiān)督之下,通過協(xié)作培養(yǎng)韌性。然而,開放或封閉的人工智能模型本質上都不能保證穩(wěn)健的驗證。

道德風險同樣至關重要。開源人工智能,就像封閉人工智能一樣,可以反映偏見或產(chǎn)生植根于訓練數(shù)據(jù)的有害輸出。這并不是開放性獨有的缺陷;這是問責制的挑戰(zhàn)。僅靠透明度并不能消除這些風險,也不能完全防止濫用。區(qū)別在于開源如何吸引集體監(jiān)督,這是專有模型通常缺乏的優(yōu)勢,盡管它仍然需要確保完整性的機制。

對可驗證的人工智能的需求

為了讓開源人工智能更受信任,它需要驗證。如果沒有它,開放和封閉模型都可能被更改或濫用,放大錯誤信息或扭曲自動化決策,從而日益塑造我們的世界。模型的可訪問性還不夠;它們還必須是可審計的、防篡改的和負責任的。

開源人工智能并不是終極游戲--將人工智能帶入鏈才是|意見

通過使用分布式網(wǎng)絡,區(qū)塊鏈可以證明人工智能模型保持不變,其訓練數(shù)據(jù)保持透明,并且其輸出可以根據(jù)已知基線進行驗證。與依賴于信任一個實體的集中式驗證不同,區(qū)塊鏈的去中心化加密方法可以阻止不良行為者閉門篡改。它還顛覆了第三方控制的劇本,將監(jiān)督分散到網(wǎng)絡中,并為更廣泛的參與創(chuàng)造激勵,這與今天不同,在今天,無償貢獻者未經(jīng)同意或獎勵的情況下為數(shù)萬億代幣數(shù)據(jù)集注入燃料,然后付費使用結果。

區(qū)塊鏈驅動的驗證框架為開源人工智能帶來了多層安全性和透明度。將模型存儲在鏈上或通過加密指紋可以確保公開跟蹤修改,讓開發(fā)人員和用戶確認他們正在使用預期版本。

在區(qū)塊鏈上捕獲訓練數(shù)據(jù)來源證明了模型來自無偏見的高質量來源,降低了隱藏偏見或操縱輸入的風險。此外,加密技術可以在不暴露用戶共享的個人數(shù)據(jù)(通常不受保護)的情況下驗證輸出,隨著模型的加強,平衡隱私與信任。

區(qū)塊鏈的透明、防篡改性質提供了開源AI迫切需要的問責制。人工智能系統(tǒng)現(xiàn)在在用戶數(shù)據(jù)上蓬勃發(fā)展,幾乎沒有保護,區(qū)塊鏈可以獎勵貢獻者并保護他們的輸入。通過編織加密證明和去中心化治理,我們可以建立一個開放、安全、不太受制于中心化巨頭的人工智能生態(tài)系統(tǒng)。

開源人工智能并不是終極游戲--將人工智能帶入鏈才是|意見

AI的未來基于信任... onchain

開源人工智能是拼圖中的一個重要部分,人工智能行業(yè)應該努力實現(xiàn)更高的可靠性,但開源并不是最終目的地。

人工智能的未來及其相關性將建立在信任的基礎上,而不僅僅是可訪問性。信任不能開源。必須在人工智能堆棧的每個級別上構建、驗證和加強它。我們的行業(yè)需要將注意力集中在驗證層和安全人工智能的集成上。目前,將人工智能引入鏈并利用區(qū)塊鏈技術是我們建設更值得信賴的未來的最安全選擇。

大衛(wèi)·平格

大衛(wèi)·平格是Warden Protocol的聯(lián)合創(chuàng)始人兼首席執(zhí)行官,該公司專注于將安全的人工智能帶入web3。在共同創(chuàng)立Warden之前,他領導了Qredo Labs的研發(fā),推動了無狀態(tài)鏈、網(wǎng)絡組裝和零知識證明等web 3創(chuàng)新。在Qredo之前,他曾在Uber和幣安擔任產(chǎn)品、數(shù)據(jù)分析和運營方面的職位。大衛(wèi)的職業(yè)生涯始于風險投資和私募股權領域的財務分析師,為高增長的互聯(lián)網(wǎng)初創(chuàng)公司提供資金。他擁有萬神殿索邦大學MBA學位。

相關應用