六畜興旺闔家安康•阿田
LLM AI
河道上漂來這篇討論ChatGPT 之類LLM危害的轉噗文,手動轉一下。
@BlackBottle - 「 我是一名精神科醫生。 2025年,我見過12個人因為人工智慧而脫離現實...
工作上,我感受到LLM(大語言模型,或大家通稱的AI)對需要高度知識和技術能力的領域的危險。這個問題越來越嚴重,而且目前很難有系統性的對策。
六畜興旺闔家安康•阿田
我現在每週平均至少要說一次「我不反對用AI,我反對不會用AI的人用AI或錯用AI」
六畜興旺闔家安康•阿田
對我來說,如果只是AI進行使用者本來就會做的工作(例如替三千字的技術文件寫摘要),並且使用者有能力辨識修正AI產出的內容錯誤,使用AI應該是沒問題的。
白金閃閃斐德利
目前的確還沒有系統性的對策,雖然提出各種解法的很多......
六畜興旺闔家安康•阿田
但是問題來了,為什麼使用者會要AI進行使用者本身就能進行的工作?通常在實務中可以大致歸類為兩個原因:1.省時間省力氣, 2.使用者沒有能力進行這項工作。(例如「使用者動作很慢,無法在要求時間內完成工作」的情況大致是兩者的結合。)
六畜興旺闔家安康•阿田
無論是為了省時省力,或其實使用者沒有能力做這項工作,在這些使用情境下,使用者在AI產出內容後都會無法辨識AI產生的錯誤。
六畜興旺闔家安康•阿田
以我上面舉的「替三千字的英文技術文件寫摘要」這項工作來說,如果我要能夠辨別AI產出的摘要是否正確,我必須要(1)熟讀那三千字的技術文件內容,還要(2)能理解AI產出的語言,才能判斷內容的正確性。
六畜興旺闔家安康•阿田
在這樣的使用情境下,能力中下的使用者就算能理解AI產出的語言,為了省時省力也不會去熟讀那三千字的技術文件、思考其內容,因為熟讀和理解通常是最耗時、最需要專業能力的工作。
六畜興旺闔家安康•阿田
如果要熟讀並且思考再來偵錯,用AI 產出內容根本不會省多少時間,大概只省了打字的時間。而且以我試過目前版本(o4?)的輸出來看,只會浪費時間,因為AI產出內容可能含糊可能錯誤,我還得花時間去改修。
六畜興旺闔家安康•阿田
能力中下的使用者,往往需要在工作中持續培養訓練,好增進相關能力。通常在結構良好的企業中,員工訓練和練習所需能力的時間也會被算在工作時間內。(在寫摘要的例子裡,閱讀、思考和寫作就是所需的能力。)
當這些人使用AI來取代這些需要訓練和練習的能力,他們失去了練習機會,永遠不會變好。既然他們不會變好,那產業要這些人幹嘛?直接用AI取代這些人就好。
六畜興旺闔家安康•阿田
所以對能力中下的使用者來說,AI 剝奪了他們成長學習的空間,還取代他們的工作。自動化工具取代人類,在人類近代史持續發生,這沒什麼稀奇的,可以說是必然現象。
六畜興旺闔家安康•阿田
噗頭那篇轉文中的精神科醫生提出一個論點: AI不會造成精神病,只是加強引爆原本就有的精神問題。
我也覺得使用AI不會讓人無能,是本來就能力不佳的人倚賴AI而讓自己無法長進。
六畜興旺闔家安康•阿田
目前工作上我有一個組員,讓我頭痛了一年多。別人花兩小時讀完的東西他要花四小時,別人想三秒的事他要想三分鐘,別人可以同時做三四件事,他一次一樣慢慢做。最近我已經跟他好幾次他這樣下去,在這行不會有太大升遷機會。
六畜興旺闔家安康•阿田
其他組員跟我說,他會用AI幫忙讀文件和內部溝通訊息,我也親眼看過他拿google AI 生成的錯誤原料條件來給我。
六畜興旺闔家安康•阿田
老實說我不知道要拿這個員工怎麼辦。他能夠做被交付的普通工作,但就這樣而已。因為他勉強算是能完成基礎任務,也沒有開除他的急迫性。但當他看著資歷比自己淺的人評鑑比他好,他以為自己可以分配到的工作被派給別人,他發現自己難以晉升的時候,又會覺得憤憤不平。現在除了等他犯下什麼大錯,或自己想通了離職,我也沒辦法做什麼。
六畜興旺闔家安康•阿田
回到原題,可以用AI嗎?我覺得可以。但前提是使用者要能審核AI生成內容的正確性,並能承擔錯誤的結果。在知識性的問題上,只要有正確知識的專業人士把關,就不會造成太大的損失(例如說在產品失敗一兩次後就發現原料錯誤,在病人亂吃藥時制止)。
六畜興旺闔家安康•阿田
在情緒支持的方面,使用沒有專業人員監測的AI非常危險。因為需要情緒支持的人缺乏相關知識,無法客觀審核內容的正確性。AI產生錯誤的結果(例如對人際關係的誤判導致人際關係惡化),使用者也往往無法承受。
六畜興旺闔家安康•阿田
我自己的觀察是:無論生活或工作,倚賴AI的人往往是最缺乏相關知識和資源,最需要幫助的人。因為相關知識和資源難以取得,所以他們轉向看似能提供解答和支持的AI工具。也因為他們缺乏知識和資源,也最無法判斷AI的錯誤,受到的危害最大。
六畜興旺闔家安康•阿田
身為專業人士,我想對各方專業人士提出的想法是:我們能怎麼改善這個現象?
最直覺的解方是「讓專業知識和資源更普及」。但資源有限,也不可能請無限的專家24小時在線上待命回答小學程度的問題。因此有專業人士開始開發有相關專業、能被監管的AI工具,這是一個解決法。
六畜興旺闔家安康•阿田
我個人則是想推廣一個更傳統的解法:增進知識推廣,和社會支持互動。專業人士分出更多時間在網路上或實體社區做公益活動,非專業人士騰出時間參與這些活動。關心身邊的人,跟週遭的人交流。每個人都試著走出自己的舒適圈,提供自己的想法和知識,和身邊的人互相挑戰,在不舒服的互動中學習變得更好。
六畜興旺闔家安康•阿田
習近平下十八層地獄的武漢肺炎疫情後,人際關係變得疏離,社群網路讓人更沉浸於舒適圈中。生活本來就有甘有苦,每次的挫折與拒絕都是成長的機會,放棄這些機會或用AI取代這些機會、放棄成長,最後只會導致更多的挫折。
六畜興旺闔家安康•阿田
讓自己變得更好,變成能夠承擔錯誤的人。就算活的跌跌撞撞,至少有努力過。知識和經驗是需要持續累積的,如果讓AI代勞我們該做的人生作業,最後只會被AI取代。
六畜興旺闔家安康•阿田
題外話,我覺得其他非LLM的AI有點被ChatGPT 之類的LLM連坐到。但無論哪種AI,成品監測的需要都相同,一般使用者也比較少接觸到,就先不提了。
柳非墨-田螺工具人批發商
我目前是拿GPT當更複雜的GOOGLE用,例如問他我記憶中的某個知識片段的出處,然後我會去找原文來看。
不太用AI 來處理工作是因為最開始試驗性的問了他一些比較具專業性的問題,發現有很明顯的謬誤,糾正它之後它只會果斷道歉啥都沒做。
少淵🌙謝謝世界
我是之前拿它當感想機器人,發現它會張冠李戴、無中生有後,就放棄使用了🤣
柳非墨-田螺工具人批發商
最開始我有試圖訓練GPT 更符合我的使用習慣,但發現長時間的對話後,它甚至會抓錯我們已經討論過的某個觀點。
比如最開始問了它一個問題,它回了我錯誤的答案A,我說A 是錯的,正確應該是B,GPT:你說的對,我是錯的,B 才是對的。
我:請分析一下特定情況下C 成立的可能性
GPT 分析完
我:試說明D跟B 的差異。
GPT 分析完
柳非墨-田螺工具人批發商
隔天再問他同樣的問題
GPT:侃侃而談了E的可能性?
我:那B 呢!!
GPT:B也可以啦。
六畜興旺闔家安康•阿田
柳非墨-田螺工具人批發商 : 要怎麼叫ChatGPT 幫你找原文啊?我只試過點google Gemini 給我的原始出處連結,然後被Gemini的錯誤引用氣得半死。
六畜興旺闔家安康•阿田
少淵🌙謝謝世界 : 張冠李戴、無中生有正是我覺得ChatGPT 最危險的部分。它總是把錯誤訊息用自信的語氣輸出。人類在無法分辨訊息真偽的情況下傾向相信充滿自信的內容,所以會覺得AI把垃圾內容講得跟真的一樣。
六畜興旺闔家安康•阿田
是說,用ChatGPT 找文獻資料時它會創作出完全不存在的文獻這件事解決了嗎?
⎝(( 。ω。))⎠粉紅舞幽夢
當你用自己的專業去使用AI的時候
就會發現他有非常多的問題
你必須使用大量的時間修正改正他,並且給予正確的引導方式才有辦法使他成為一個適合並且減少時間的工具,但你不知道需要花多少時間去取得這樣的“果”,大部分時候還是自己來比較快。
而且我本身是會對事情秉持著懷疑性的人,所以我會發現AI回答出的答案有部分是錯誤或者非事實,甚至是虛構的。
況且他們也不如一般人敘述的可以舉一反三連結前後語言。
而且會隨著你詢問的問題越加深入而複雜會讓AI所給予的答案更加混亂。
我不確定是不是我購買的等級還不夠
⎝(( 。ω。))⎠粉紅舞幽夢
我很擔心那些把AI當成真理,或者本身對某一部份不熟悉的人會得到錯誤的資訊而信以為真,我現在就有點害怕自己會變成這樣...
白金閃閃斐德利
柳非墨-田螺工具人批發商
六畜興旺闔家安康•阿田 : 我讓他找的是我看過得但一時間想不起來在哪裡看到,可以用縮小範圍的方式請它篩選文獻出處,(但須要自己對該文獻有一定正確的關鍵訊息)
而且也不是每次都能成功找到,有時花了十幾二十分跟叫GPT 查,它只會一直問我,你說的是XXXXX嗎?
我:不是!
GPT:懂了,你要找的是OOOO
我:不是!!!!!!
GPT:好的,明白,那麼根據你說的AAA,也許你要找的是BBB
我:不是!!!!
柳非墨-田螺工具人批發商
六畜興旺闔家安康•阿田 : 沒有解決,我只會叫他找我確認真實存在(我看過),但我一時間想不起來標題或在哪看過的,或者我對當中某一段不太確定想要看一下原文的,通常這種文獻,他在大海中幫我撈針的能力比我強(但失靈率大概40%
柳非墨-田螺工具人批發商
⎝(( 。ω。))⎠粉紅舞幽夢 : 平均每一兩天就會遇到AI診斷過的病人是真的心很累……
幸好目前我的病人還沒有出現被嚴重誤診的情況(只有一些小偏差,或小狀況),也不知道是算我命好還是他們命好
載入新的回覆