未來人語: 潘朵拉盒子

分享

未來人語‧李鑒泉

李鑒泉(Lierence)是公關及市場行銷公司Market Hubs聯合創始人,擁有15年專業經驗,率先引入AI、Web3.0及元宇宙科技協助客戶解決問題。

AutoGPT:潘朵拉盒子
4月份美國兩黨議員向國會提出獲兩黨、兩院支持的《阻止人工智能自主發射核彈法案》(Block Nuclear Launch by Autonomous Artificial Intelligence Act),顧明思義是保護核指揮和控制過程,阻止AI自主發射核彈。較早前的時,好事之徙炮製出的ChaosGPT於Twitter上公佈其滅世大計,更找來GPT-3.5的AI幫忙,然而最後落得封號收場,細思極恐,這無疑是打開了一個潘朵拉盒子。

無論是ChatGPT、Google Bard、百度文心一言抑或其他生成式人工智能 (Generative AI),都要通過用戶輸入Prompts才能操作,然而AutoGPT的出現,其創新性和潛力引起了廣泛關注。作為一款實驗性開源應用程式,AutoGPT 基於 GPT-4 語言模型,該程式具有自主性,能夠實現用戶設定的任何目標。儘管 AutoGPT 尚不完美,但其背後的邏輯卻非常前衛。AutoGPT 嘗試除去人的元素,即是輸入者下達第一個指令,生成式人工智能便能反覆問問題從而達至預期效果。在未來,這種自主性將使其成為具有廣泛應用價值的 AI 代理。

ChaosGPT無非是AutoGPT的「天網」版本,這亦無疑引爆包括Elon Musk在內多位業界猛人對於人工智能「失控」的疑慮,未來面世的強人工智能,懂得發問、學問,與真人無異。AutoGPT 代表著一種顛覆性的創新,有望引領我們進入一個全新的時代。

由人吃人演變為AI吃人的時代
在這個日新月異的時代,只有不斷創新和擁抱變革的人才和企業才能在競爭中取得優勢。隨著 AI 技術的快速發展,今天的優勢可能很快就會被明天的創新所取代,早前我們開發的AI自動新聞稿生成工具Market Hubs Lites亦不得不進行多次優化來符合市場所需。人工智能的廣泛應用將帶來巨大的改變,但同時也引發了許多道德和倫理上的困境。我們需要在技術發展的同時,警覺地思考其對社會的影響,並努力確保 AI 的發展造福人類,而不是對人類造成損害。

面對 AutoGPT 和類似技術的崛起,政府、企業和個人都需要認識到,我們正處於一個信息爆炸的時代,AI 的普及將改變我們的生活方式和工作方式。企業需要提前進行戰略布局,尋找 AI 技術在各個領域的應用場景,並將其與傳統行業結合,以實現跨界創新和協同發展。在教育領域,我們需要培養下一代具備足夠的 AI 知識和技能,以應對未來充滿挑戰的工作環境。此外,我們還需要建立一個跨學科的學術平台,以促進 AI 領域的研究和創新。

在人工智能技術不斷進步的同時,我們需要確保這些技術在遵守法律和道德規範的基礎上發展。我們應該設立相應的法律法規,以防止濫用 AI 技術,並確保數據安全和隱私。此外,我們還需要加強對 AI 技術的監管,以避免技術應用帶來的潛在風險。

同時,我們應該積極開展人工智能的國際合作,以實現全球共享 AI 的成果。這將有助於應對全球性挑戰,如氣候變化、醫療保健和糧食安全等,並為全球的經濟發展和人類福祉創造更多的價值。在這個即將由 AI 主宰的新時代,我們需要結合創新思維和科技力量,以迎接前所未有的挑戰和機遇。只有不斷努力、勇於擁抱變革,我們才能在這個日新月異的時代中立足。

分享