,亚洲欧美日韩国产成人精品影院,亚洲国产欧美日韩精品一区二区三区,久久亚洲国产成人影院,久久国产成人亚洲精品影院老金,九九精品成人免费国产片,国产精品成人综合网,国产成人一区二区三区,国产成...

首頁 500強 活動 榜單 商業 科技 領導力 視頻 專題 品牌中心
雜志訂閱

ChatGPT一小時生成的研報刷屏

2023-02-07 19:00
文本設置
小號
默認
大號
Plus(0條)
2月5日晚間,財通證券研究所發布的一篇由ChatGPT撰寫的醫美研報在業內刷屏,為近期本就炙手可熱的AIGC概念再添一把火。據悉,該研報篇幅超6000字,主要由ChatGPT完成,搭建報告框架、生成文字并翻譯共花費約1小時,分析師后期修改花了2小時。與ChatGPT合作撰寫研報的分析師甚至表示:肯定會替代人工!有海外研究員表示,ChatGPT的應用“值得重視”,不久的將來或許ChatGPT會成為研究員撰寫研報的常用工具之一。 | 相關閱讀(券商中國)
43
觀星

觀星

坐臥由行,言談從心

當chatGPT沖擊智力優勢群體、機器人沖擊體力群體時刻,所有人都仿佛陷入了一座牢籠之中……失業就業,業到底是什么,迷信又是什么,道德又是什么。這些曾經不曾或是很少思考的問題反倒覺得此時此刻不妨思考一下,過往我們慣用比他人優秀的學習分析整理忍受個人等能力上優越性來取得或是獎賞的崗位,此時卻在不經意間遭遇更高算力或是結構上的壓制。但長期的群體性讓我們淡忘了財富來源于交換,當層級結構分離形成所謂的人神鬼割裂不通種群,種群間無非幾種可能,或沉淪或隔絕或反叛,歷史不斷演化至今的國家體系不啻為與種群割裂可能的彌合與修補。人可以不供奉神,而神卻無法丟棄供奉。
時代想要征途,智械時代必然迎來降臨,目前一只如狗智力但擁有真菌無限滲透的生物便讓人陷入癲狂,那人族還談什么星辰大海。
我們慣言資本主義是剝削的是赤裸裸的,那為何資本主義國家中亦存在不少良性的現象……
我更喜在華夏史中尋在可能,于我而言西方目前的繁榮一如春秋戰國時期的思想爆炸,無謂主義,而在強國富民引萬民向往。六國失民而六國消,大秦真的亡了么,秦所建立的體系為后世奠定的理論框架讓我們一直自詡漢人…
chatGPT、alphaGO亦或是羲和,國之利器舉重若輕,每一次技術革新的背后真正考驗的是一個國家主導力量的控制能力,我堅信我們能妥當解決未來可能出現的問題,讓種群之火生生不息,大勢到來之際,去迎接去改造,而不是愚昧守制守舊,華夏歷來是一個不斷完善創新的民族,又豈能被歪解的假儒主義所禁錮,禮法讓華夏人道隆盛、創新開拓亦讓華夏不懼他人。
三易其中,族魂不改,四夷從之,皆是諸夏

52
肖颯

肖颯

“科技+金融”深度法律服務者


ChatGPT等基于自然語言處理技術的聊天AI,就短期來看亟需要解決的法律合規問題主要有三個:



其一,聊天AI提供的答復的知識產權問題,其中最主要的合規難題是聊天AI產出的答復是否產生相應的知識產權?是否需要知識產權授權?;



其二,聊天AI對巨量的自然語言處理文本(一般稱之為語料庫)進行數據挖掘和訓練的過程是否需要獲得相應的知識產權授權?



其三,ChatGPT等聊天AI的回答機制之一是通過對大量已經存在的自然語言文本進行數學上的統計,得到一個基于統計的語言模型,這一機制導致聊天AI很可能會“一本正經的胡說八道”,進而導致虛假信息傳播的法律風險,在這一技術背景下,如何盡可能降低聊天AI的虛假信息傳播風險?



總體而言,目前我國對于人工智能立法依然處在預研究階段,還沒有正式的立法計劃或者相關的動議草案,相關部門對于人工智能領域的監管尤為謹慎,隨著人工智能的逐步發展,相應的法律合規難題只會越來越多。



圖片




ChatGPT并非是“跨時代的人工

智能技術”



ChatGPT本質上是自然語言處理技術發展的產物,本質上依然僅是一個語言模型。

2023開年之初全球科技巨頭微軟的巨額投資讓ChatGPT成為科技領域的“頂流”并成功出圈。隨著資本市場ChatGPT概念板塊的大漲,國內眾多科技企業也著手布局這一領域,在資本市場熱捧ChatGPT概念的同時,作為法律工作者,我們不禁要評估ChatGPT自身可能會帶來哪些法律安全風險,其法律合規路徑何在?

在討論ChatGPT的法律風險及合規路徑之前,我們首先應當審視ChatGPT的技術原理——ChatGPT是否如新聞所言一樣,可以給提問者回答任何其想要的問題?

在颯姐團隊看來,ChatGPT似乎遠沒有部分新聞所宣傳的那樣“神”——一句話總結,其僅僅是Transformer和GPT等自然語言處理技術的集成,本質上依然是一個基于神經網絡的語言模型,而非一項“跨時代的AI進步”。

前面已經提到ChatGPT是自然語言處理技術發展的產物,就該技術的發展史來看,其大致經歷了基于語法的語言模型——基于統計的語言模型——基于神經網絡的語言模型三大階段,ChatGPT所在的階段正是基于神經網絡的語言模型階段,想要更為直白地理解ChatGPT的工作原理及該原理可能引發的法律風險,必須首先闡明的就是基于神經網絡的語言模型的前身——基于統計的語言模型的工作原理。

在基于統計的語言模型階段,AI工程師通過對巨量的自然語言文本進行統計,確定詞語之間先后連結的概率,當人們提出一個問題時,AI開始分析該問題的構成詞語共同組成的語言環境之下,哪些詞語搭配是高概率的,之后再將這些高概率的詞語拼接在一起,返回一個基于統計學的答案。可以說這一原理自出現以來就貫穿了自然語言處理技術的發展,甚至從某種意義上說,之后出現的基于神經網絡的語言模型亦是對基于統計的語言模型的修正。

舉一個容易理解的例子,颯姐團隊在ChatGPT聊天框中輸入問題“大連有哪些旅游勝地?”

AI第一步會分析問題中的基本語素“大連、哪些、旅游、勝地”,再在已有的語料庫中找到這些語素所在的自然語言文本集合,在這個集合中找尋出現概率最多的搭配,再將這些搭配組合以形成最終的答案。如AI會發現在“大連、旅游、勝地”這三個詞高概率出現的語料庫中,有“中山公園”一詞,于是就會返回“中山公園”,又如“公園”這個詞與花園、湖泊、噴泉、雕像等詞語搭配的概率最大,因此就會進一步返回“這是一個歷史悠久的公園,有美麗的花園、湖泊、噴泉和雕像。”

換言之,整個過程都是基于AI背后已有的自然語言文本信息(語料庫)進行的概率統計,因此返回的答案也都是“統計的結果”,這就導致了ChatGPT在許多問題上會“一本正經的胡說八道”。如剛才的這個問題“大連有哪些旅游勝地”的回答,大連雖然有中山公園,但是中山公園中并沒有湖泊、噴泉和雕像。大連在歷史上的確有“斯大林廣場”,但是斯大林廣場自始至終都不是一個商業廣場,也沒有任何購物中心、餐廳和娛樂場所。顯然,ChatGPT返回的信息是虛假的。

二、ChatGPT作為語言模型目前其最適合的應用場景

雖然上個部分我們直白的講明了基于統計的語言模型的弊端,但ChatGPT畢竟已經是對基于統計的語言模型大幅度改良的基于神經網絡的語言模型,其技術基礎Transformer和GPT都是最新一代的語言模型,ChatGPT本質上就是將海量的數據結合表達能力很強的Transformer模型結合,從而對自然語言進行了一個非常深度的建模,返回的語句雖然有時候是“胡說八道”,但乍一看還是很像“人類回復的”,因此這一技術在需要海量的人機交互的場景下具有廣泛的應用場景。

就目前來看,這樣的場景有三個:

其一,搜索引擎;

其二,銀行、律所、各類中介機構、商場、醫院、政府政務服務平臺中的人機交互機制,如上述場所中的客訴系統、導診導航、政務咨詢系統;

第三,智能汽車、智能家居(如智能音箱、智能燈光)等的交互機制。

結合ChatGPT等AI聊天技術的搜索引擎很可能會呈現出傳統搜索引擎為主+基于神經網絡的語言模型為輔的途徑。目前傳統的搜索巨頭如谷歌和百度均在基于神經網絡的語言模型技術上有著深厚的積累,譬如谷歌就有與ChatGPT相媲美的Sparrow和Lamda,有著這些語言模型的加持,搜索引擎將會更加“人性化”。

ChatGPT等AI聊天技術運用在客訴系統和醫院、商場的導診導航以及政府機關的政務咨詢系統中將大幅度降低相關單位的人力資源成本,節約溝通時間,但問題在于基于統計的回答有可能產生完全錯誤的內容回復,由此帶來的風控風險恐怕還需要進一步評估。

相比于上述兩個應用場景,ChatGPT應用在智能汽車、智能家居等領域成為上述設備的人機交互機制的法律風險則要小很多,因為這類領域應用環境較為私密,AI反饋的錯誤內容不至于引起大的法律風險,同時這類場景對內容準確性要求不高,商業模式也更為成熟。

三、ChatGPT的法律風險及合規路徑初探

第一,人工智能在我國的整體監管圖景

和許多新興技術一樣,ChatGPT所代表的自然語言處理技術也面臨著“科林格里奇窘境(Collingridge dilemma)”這一窘境包含了信息困境與控制困境,所謂信息困境,即一項新興技術所帶來的社會后果不能在該技術的早期被預料到;所謂控制困境,即當一項新興技術所帶來的不利的社會后果被發現時,技術卻往往已經成為整個社會和經濟結構的一部分,致使不利的社會后果無法被有效控制。

目前人工智能領域,尤其是自然語言處理技術領域正在快速發展階段,該技術很可能會陷入所謂的“科林格里奇窘境”,與此相對應的法律監管似乎并未“跟得上步伐”。我國目前尚無國家層面上的人工智能產業立法,但地方已經有相關的立法嘗試。就在去年9月,深圳市公布了全國首部人工智能產業專項立法《深圳經濟特區人工智能產業促進條例》,緊接著上海也通過了《上海市促進人工智能產業發展條例》,相信不久之后各地均會出臺類似的人工智能產業立法。

在人工智能的倫理規制方面,國家新一代人工智能治理專業委員會亦在2021年發布了《新一代人工智能倫理規范》,提出將倫理道德融入人工智能研發和應用的全生命周期,或許在不久的將來,類似阿西莫夫小說中的“機器人三定律”將成為人工智能領域監管的鐵律。

第二,ChatGPT帶來的虛假信息法律風險問題

將目光由宏觀轉向微觀,拋開人工智能產業的整體監管圖景和人工智能倫理規制問題,ChatGPT等AI聊天基礎存在的現實合規問題也急需重視。

這其中較為棘手的是ChatGPT回復的虛假信息問題,正如本文在第二部分提及的,ChatGPT的工作原理導致其回復可能完全是“一本正經的胡說八道”,這種看似真實實則離譜的虛假信息具有極大的誤導性。當然,像對“大連有哪些旅游勝地”這類問題的虛假回復可能不會造成嚴重后果,但倘若ChatGPT應用到搜索引擎、客訴系統等領域,其回復的虛假信息可能造成極為嚴重的法律風險。

實際上這樣的法律風險已經出現,2022年11月幾乎與ChatGPT同一時間上線的Meta服務科研領域的語言模型Galactica就因為真假答案混雜的問題,測試僅僅3天就被用戶投訴下線。在技術原理無法短時間突破的前提下,倘若將ChatGPT及類似的語言模型應用到搜索引擎、客訴系統等領域,就必須對其進行合規性改造。當檢測到用戶可能詢問專業性問題時,應當引導用戶咨詢相應的專業人員,而非在人工智能處尋找答案,同時應當顯著提醒用戶聊天AI返回的問題真實性可能需要進一步驗證,以最大程度降低相應的合規風險。

第三,ChatGPT帶來的知識產權合規問題

當將目光由宏觀轉向微觀時,除了AI回復信息的真實性問題,聊天AI尤其是像ChatGPT這樣的大型語言模型的知識產權問題亦應該引起合規人員的注意。

首先的合規難題是“文本數據挖掘”是否需要相應的知識產權授權問題。正如前文所指明的ChatGPT的工作原理,其依靠巨量的自然語言本文(或言語料庫),ChatGPT需要對語料庫中的數據進行挖掘和訓練,ChatGPT需要將語料庫中的內容復制到自己的數據庫中,相應的行為通常在自然語言處理領域被稱之為“文本數據挖掘”。當相應的文本數據可能構成作品的前提下,文本數據挖掘行為是否侵犯復制權當前仍存在爭議。

在比較法領域,日本和歐盟在其著作權立法中均對合理使用的范圍進行了擴大,將AI中的“文本數據挖掘”增列為一項新的合理使用的情形。雖然2020年我國著作權法修法過程中有學者主張將我國的合理使用制度由“封閉式”轉向“開放式”,但這一主張最后并未被采納,目前我國著作權法依舊保持了合理使用制度的封閉式規定,僅著作權法第二十四條規定的十三中情形可以被認定為合理使用,換言之,目前我國著作權法并未將AI中的“文本數據挖掘”納入到合理適用的范圍內,文本數據挖掘在我國依然需要相應的知識產權授權。

其次的合規難題是ChatGPT產生的答復是否具有獨創性?對于AI生成的作品是否具有獨創性的問題,颯姐團隊認為其判定標準不應當與現有的判定標準有所區別,換言之,無論某一答復是AI完成的還是人類完成的,其都應當根據現有的獨創性標準進行判定。其實這個問題背后是另一個更具有爭議性的問題,如果AI生成的答復具有獨創性,那么著作權人可以是AI嗎?顯然,在包括我國在內的大部分國家的知識產權法律下,作品的作者僅有可能是自然人,AI無法成為作品的作者。

最后,ChatGPT倘若在自己的回復中拼接了第三方作品,其知識產權問題應當如何處理?颯姐團隊認為,如果ChatGPT的答復中拼接了語料庫中擁有著作權的作品(雖然依據ChatGPT的工作原理,這種情況出現的概率較小),那么按照中國現行的著作權法,除非構成合理使用,否則非必須獲得著作權人的授權后才可以復制。

53
萬關山

萬關山

一山放過一山攔

目前在各行各業對ChatGPT的研究之下,我們已經發現ChatGPT未來可以替代很多人工工作,首先搜索引擎可能是第一個被替代的業務,其次程序員、文案等等都有被替代的風險。但是想來想去,可能大家都沒有想到,原來研報分析師這樣的高薪工種,也有被其替代的風險。目前看來,雖然ChatGPT還沒有辦法獨立完成一整份研報,但是原本一份研報需要兩個或者多個分析師,如今通過跟ChatGPT合作,可能一個分析師來修改就夠了,那么這個行業中比較底層的分析師可能在未來很快就會有失業的風險了。

22
閃電

閃電

多來米!

ChatGPT是無法依據非公開信息進行運算的,可以根據公開信息進行趨勢運算,這還是有一定威力的。畢竟無風不起浪,沒有不漏風的墻。

評論

撰寫或查看更多評論

請打開財富Plus APP

前往打開