大約在 2023年初,因為 ChatGPT 出現,在當時提供我非常大的幫助,雖然那時的 GPT 反應不快,精準度約 80%,但比靠自己有限的英文聽力與對法律文字的理解能力,它提供的協助比當時的 Google Translate 還多,雖然我還是得周末加班處理,別人連假出去玩,我只能在家裡翻譯錄音及重新撰寫文章,但隱約已有不安的感覺:「身為研究人員,依賴這些工具後,我存在的價值在哪裡?」
在工作裡,生成式 AI 協助我翻譯、校正文字、重組文句、擬問卷題目。當我撰寫好一篇內容後,它可以幫我檢查別字(我很容易有別字)、贅字,或是它會協助挑出一般人不易理解的字句,並提供建議,而我會參考它的建議,再調整文章內的字句。它相當於一個輔助的編輯,在我把文章交給編輯前,先調整文章內容,提高可讀性。有時我請它翻譯文章,裡面有我無法理解的句子或字詞,就會請它解釋到我能以白話理解、表達為止。
隨著使用它的頻率增加,我也去聽關於學術倫理與人工智慧的演講。台上的講者提到一位博士班學生一直寫不出論文,在無法延長修業年限的情況下,使用 ChatGPT「編」出一本乍看之下很真實的著作。當時的 GPT 沒有 4o 有多種功能,但正經八百的與人說瞎話的功能已經令人刮目相看。當這本論文到達指導教授的手上,有經驗的教授第一眼就看參考文獻,馬上被教授抓到破綻--參考文獻的中作者根本沒有出版那篇論文。當時已經有預防論文抄襲的判讀系統,避免學生抄襲,但也曾經因為對非英語母語寫作者的寫作方式而誤判的案例。教授給這位博士班學生一個機會重新撰寫他的畢業論文,但最後,這位博士生仍然無法產出論文,除浪費時間外,在學術倫理評價上也被留下污點。
因為這件事,我如果在撰寫文章時有使用 AI 工具輔助,我多會在文末註明,該篇文章是與哪一個 AI 合作產出,我也會讓主管與同事知道,我使用 AI 在工作文件中提供哪些協助,這已成為我個人的習慣。
隨著可以應用的工具愈來愈多,我也看到許多文章、報告裡都出現 AI 工具的痕跡,有時使用者以為其他人看不出來,但這些痕跡很明顯,如果作者能自我揭露,是一件很好的事。當然現在沒有任何規定、規範要求撰寫者這麼做,但聽同事說國外的期刊已經要求作者自我揭露,我想國內應該也會有相關的要求。
在台灣,政府也提供使用生成式AI的參考指引。台灣行政院在 2023 年 8 月底公布由國科會擬定的「行政院及所屬機關(構)使用生成式AI參考指引」其中的第六條至第九條分別這麼寫著:
如果照著指引做其實可以提高信任度,然而,因為它是一份「指引」,不是法律,沒有罰則,所以它是一份希望各行政機關在使用生成式AI產出東西時能遵守的守則,但不強迫相關單位擬訂類似的指引,而這第六條與第八條也總在我腦海裡打轉。
我也觀察到一些有趣的現象:有些人認為有AI出現是件好事,AI 代替他們處理繁瑣、耗費心神的工作,自己可以處理相對簡單、輕鬆的工作項目,反正薪水不變,為什麼不處理一些簡單的工作就好?有些人認為自己不需要相關應用的協助,自己手工產出的成果比AI產出的更好;也有人認為自己不需要付費使用這類工具,既然已有其他同事付費,就讓有付費的同事來做就好(類似搭便車者的心態)。
同時在國際網路治理論壇在熱烈的討論互通性的AI時,我反而比較傾向去看 AI 是否會造成兩極化的現象?如同電腦與網際網路出現,有許多公司、從業人員在電腦化的第一波衝擊下選擇退出市場、退休;到網路轉型的時代,進入了先行者優勢的時代,有些公司無法明確說出自己的需求,帶著僥倖的心態認為做一天算一天,當自己發現轉型的需求迫在眉睫時,卻已來不及,只能被時代的巨輪輾壓成碎片。
根據《台灣企業 AI 準備度調查報告》(Google Cloud 與人工智慧基金會合作),台灣企業 AI 準備度平均54分,仍有進步空間,尤其治理能力偏低。都使我想起在電腦化、網路化的這一路過程裡,台灣企業與台灣從業人員的抗拒到接受,或國外也出現為爭取自己工作權,不被人工智慧取代的抗議活動。
在理想家們的預期情況是人們使用生成式AI會協助減輕繁複瑣碎且不太需要動腦的工作,專心於需要心力的工作上,但實際卻是人們把大腦的工作外包給生成式AI,自己樂於做繁複瑣碎的工作,因為這類工作相當輕鬆。更有甚者,可以要求已付費使用生成式AI工具的同事,「順便」完成所有的工作。
「有付費使用生成式AI」與「沒有付費使用生成式AI」的工作者,會不會出現工作品質的差異?有經濟能力去使用這類工具的使用者,與沒有經濟能力(或不願做此支出)使用這類工具的使用者,在長期下是否因此而有資訊落差的情況出現?
某次參與一場線上課程,我問講者:「使用生成式AI是否會造成人與人之間減少溝通?」講者表示,自己會與團隊會一同看生成式AI產出的內容,與生成式AI一起腦力激盪,所以團隊之間因為生成式AI而產生不同的火花,這是非常正面的案例。講者也解釋,當使用者要問問題(或下提示語,Prompt)時,也需要有擁有知識與專業,才能問對問題,生成式 AI 才能提高正確回答使用者的問題的機率,所以還是需要專業的使用者,這是無法被AI取代的。
有正面的案例,就會有負面案例,例如以前的人會要求:「你 Google 以後,找不到答案再問我。」現在就把 Google 換成任何一種生成式 AI 工具都行,或是「你有那麼好的工具,為什麼不用 ChatGPT?」。
我很喜歡人與人之間的互動,是真正的討論,以往有許多文章其實是先與朋友討論後才產出的。我個人認為在生成式AI出現後,減少人與人之間的互動,而使用生成式AI的時間愈長,也愈容易讓人進入 「 Echo Chamber」的情況。「 Echo Chamber」的字面意義是「迴聲室」被用來形容網際網路的同溫層現象。每個生成式AI在記錄使用者與之對話的過程後,使用者與其所面對的生成式AI的思維會逐步接近、彼此認同。有些工具如 Perplexity AI、ChatGPT 已發展出搜尋功能以提高搜尋的準確率,但我也在擔心,這是一種在預設相同觀念下,找出符合使用者期待的答案,而不是帶給使用者「新概念」的功能。這些需要再進一步研究驗證,我希望正面的案例能持續累積,而負面的個案則能成為我們進一步改進與反思的契機。
當我看著 GPT 生成的內容,「我的價值是什麼?」成為我日常與生成式 AI 工作的最大困擾。身為一個非天才型的撰寫者,需要時間與精神,自蒐集資料、組織、撰寫再到修改,產出一篇文章都是一段嘔心瀝血的過程。生成式 AI 的產出速度驚人,短至幾秒,長不過三分鐘,就能產出文情並茂的文章。這些內容正經八百,甚至難以挑出明顯破綻。令人氣餒的是,在藝術創作上,曾經有人認為生成式 AI 無法取代人的創作,但自企業營利的角度看,企業只需要一個「夠好」、「具市場接受度」的「成品」,而不是經典之作。
再回到自我揭露的部份,我注意到,如果自我揭露一篇文章有使用生成式AI潤飾,或使用它協助翻譯,被採納的機率、被閱讀的機率也較低。也許是生成式AI的思維模式不是一般人習慣的思維及口語模式,又或是反而提高讀者對作者能力的不信任,這些反而降低自我揭露的正面意義,也降低透明度。
有人建議我,我們的價值就是去判讀生成式 AI 產出內容的正確性、用專業去判斷內容的真實性,產出的內容與邏輯是否符合顧客的需求,避免生成式AI一本正經的胡說八道。如果公司內部鼓勵使用新的工具,那為什麼不嘗試呢?
新科技的出現,如同電腦、網際網路、生成式 AI 都是在縮短資訊落差,讓投機者無法利用資訊的不對等,剝削資訊落後者,是否又會造成另一種資訊落差?例如,無法掌握新技術的人可能因此被排擠,逐漸失去競爭力,甚至被市場淘汰。這樣的落差可能導致社會資源分配的不均,進一步加劇經濟與教育層面的不平等。
我相信人與人之間因互動、溝通產生的創造力,有點像傳說中的魔法或創意的火花,是生成式AI無法突破的限制。例如,在團隊合作中,人類的直覺、同理心或跨領域聯想常常能引發出意想不到的點子,而這些特性是AI目前難以模仿的。如同前面談到的正向案例,我期待的是使用者與生成式AI能一起創造的內容與未來。
註:這篇文章使用 ChatGPT 調整過。
留言
發佈留言
請勿匿名留言,待審核後才會出現。