火爆背后,ChatGPT打開了人工智能的“潘多拉魔盒” |
發(fā)布時間:2023-04-21 文章來源:本站 瀏覽次數(shù):2349 |
ChatGPT的爆火,生動詮釋了什么是“人紅對錯多”,展開至今現(xiàn)已招引了許多互聯(lián)網大佬的重視和評論。 毋庸置疑,對于一款具有分水嶺含義的產品而言,不少企業(yè)家都認同大型言語模型的廣泛應用。微軟創(chuàng)始人比爾蓋茨曾表明:“ChatGPT的誕生一點點不亞于個人電腦的誕生。”英偉達創(chuàng)始人黃仁勛也表明:“ChatGPT只是起點,咱們正處于AI的iPhone時間!惫雀枨癆I團隊成員、deeplearning.ai創(chuàng)始人吳恩達曾在推特上宣布言辭,以為ChatGPT等大型言語模型是“人工智能領域為激動人心的進展之一! 但也有部分企業(yè)家以為,ChatGPT們的火爆背后,隱憂猶存。 人工智能需求強監(jiān)管嗎? 咱們在人工智能的展開方面,是否步伐太快? 3月末,生命未來研討所(Future of Life)發(fā)布了一封公開信,包含馬斯克在內的上千名人工智能研討人員和技能高管進行了簽名,呼吁所有人工智能實驗室暫停比GPT-4更強大的人工智能系統(tǒng)的練習,暫停時間至少為6個月。 對此,國內的相關企業(yè)家也對此示警:劉慈欣曾在一次采訪中表明:“ChatGPT等大型言語模型的出現(xiàn)將徹底改變人類的閱覽和寫作方法,一起也會帶來一些新的品德和道德問題。”周鴻祎也曾就相關大型言語模型的安全性問題給予提醒:“在運用公開GPT時必定要注意安全問題。大型企業(yè)在用 GPT 時不只是搜索,還會給它喂許多數(shù)據,會把許多上下文的條件布景告訴它,這就意味著許多信息的隱私或許會被走漏。” 毋庸置疑,ChatGPT這樣的產品是人工智能工業(yè)展開的里程碑。但即使是火爆如ChatGPT,也面臨著至暗時間的來臨。 不久前,以色列網絡安全公司Team8的新陳述顯示,運用ChatGPT等生成式人工智能的企業(yè)或許會因而走漏客戶信息和商業(yè)秘要。該陳述稱,新型人工智能談天機器人和協(xié)作工具的廣泛普及,或許會令一些公司面臨數(shù)據走漏和法令危險。他們憂慮黑客或許會運用談天機器人獲取靈敏的企業(yè)信息或對企業(yè)發(fā)動進犯。此外,現(xiàn)在投喂給談天機器人的秘要信息未來也有或許會被人工智能公司運用。 除此之外,各國政府對于ChatGPT的態(tài)度也開端變得愈加鎮(zhèn)定。 美國聯(lián)邦貿易委員會(FTC)也表明將要點重視亂用人工智能技能違反反歧視法或存在詐騙行為的公司。意大利個人數(shù)據維護局宣布,從即日起制止運用談天機器人ChatGPT,并限制開發(fā)這一平臺的OpenAI公司處理意大運用戶信息。英國則發(fā)布了一份文件,主張監(jiān)管機構監(jiān)督人工智能的展開,要點在安全性、透明度和公平性。 AI的運用離不開適度監(jiān)管 阿里通義千問、飛書My AI、知乎知海圖 AI、京東言犀、馬斯克的 TruthGPT 都冒出了頭,科技互聯(lián)網行業(yè)一時之間,好不熱鬧。當越來越多的企業(yè)跑步進場,大型言語模型也面臨著越來越多的困局。 4月18日,CSDN發(fā)布《2022-2023 我國AIoT開發(fā)者調查陳述》。陳述中提到:“對AIoT抱持不安全感態(tài)度的開發(fā)者占比6%,也有11%的開發(fā)者憂慮AIoT會加劇失業(yè)問題。”而且,伴隨AIoT技能的廣泛應用,也會帶來一系列道德、法令和社會影響,將改變咱們經濟展開路徑和社會生活形態(tài)。因而,在AIoT技能普及之前,需求展開廣泛的社會、文化和道德的討論研討。 現(xiàn)在,ChatGPT作為生成式AI的代表現(xiàn)已迭代到了ChatGPT 4.0。跟著版本的更新迭代,GPT-4的文字輸入限制也得到了提高,到達了2.5萬字,而且對于非英語語種的支撐也得到了更多的優(yōu)化。這也使得ChatGPT不僅可以愈加準確地回答問題,還具備更高水平的圖像識別才能。此外,ChatGPT 4.0還可以生成歌詞和構思文本,而且完成了風格的多樣性。 相關材料顯示,初代GPT模型的參數(shù)是1.17億個,GPT-2是15億個,GPT-3模型參數(shù)量到達1750億,是GPT-2的100倍;而GPT-4的真實參數(shù)在1750億-2800億之間,要點在數(shù)據處理優(yōu)化上。 但需求注意的是,伴跟著ChatGPT成長而越來越龐大的數(shù)據和越來越強的算力,也意味著更大的數(shù)據和隱私危險。據報道,三星在引進ChatGPT不到20天里,就現(xiàn)已發(fā)生了三起半導體秘要材料外泄事端,涉及測量材料、產品良品率等內容,傳聞已被存入到ChatGPT學習材料庫中。大型言語模型的負面效應現(xiàn)已開端展現(xiàn)。 在國內,相關政策的擬定現(xiàn)已走在前列。此前,《生成式人工智能服務管理辦法(征求意見稿)》面向社會征求意見,這意味著,當下備受重視的生成式AI工業(yè)將迎來首份監(jiān)管文件。從生成式人工智能服務商的準入,到算法設計、練習數(shù)據挑選、模型、內容,以及用戶個人隱私、商業(yè)秘密等方面提出了相關要求。其中特別強調了生成式人工智能產品練習數(shù)據及生成內容的真實性、合法性,要求提供者應當對生成式人工智能產品的預練習數(shù)據、優(yōu)化練習數(shù)據來歷的合法性負責。 或許,這將是人工智能工業(yè)展開的必由之路:在為人工智能展開擬定結構的一起留足展開空間,讓人工智能得以完成大范圍普及。畢竟,技能自身沒有好壞之分,但“技能不作惡”,才是工業(yè)展開的底子底線。 |
|