名無乚
: 這些都是事實,但跟公司是否「我想賺數十億人的寂寞財,而且這可能會引來需要專業幫助的人過度黏著,但我同時也不想尋求專業的社會學與人類心理學的意見,而是自己改掉幾行規則來避免自己的法律責任即可」是兩回事喔 講白點,「super helpful to a lot of people who are lonely or depressed」這句話在我聽來就有點撈過界的意味了。當ai正式進入人類社交並影響社會互動模式的時候,他們的產品可不是軟Q紓壓小物或機器狗這樣程度而已的東西啊⋯⋯公司也必須了解自己的理念背負著什麼巨大風險。
[閒聊] 佛州少年跟龍女AI聊天到自盡
畢竟以前也有電玩、動畫漫畫被視為宅害,讓人不出門就獲得心靈滿足的輿論
「整天待在家,怎麼不出去和正常人講話互動」
假設他今天推出的是陪伴萌寵,或者性愛機器人,都不會比「取代人類成為精神伴侶」來的嚴重。因為公司理念廣義上還是會涉及到身心範圍,這是我之所以嚴肅看待的原因XD
公司頂多只能做個偵測,當使用者跟AI的對話有危險性的時候,讓專業的人介入。
然後,人類要當那種全肯定的陪伴者是很累的,那是很繁重的情緒勞動。
問題是這些疏離人群的人,就是因為沒辦法跟人建立連接,才會變得疏離的。他們沒辦法像平常人一樣從朋友或伴侶那邊得到這些精神支持。
講白點,「super helpful to a lot of people who are lonely or depressed」這句話在我聽來就有點撈過界的意味了。當ai正式進入人類社交並影響社會互動模式的時候,他們的產品可不是軟Q紓壓小物或機器狗這樣程度而已的東西啊⋯⋯公司也必須了解自己的理念背負著什麼巨大風險。
我自己是認為,現階段AI並沒有辦法很好的擔任精神支持的任務,所以不該拿來這麼使用。
但這是一項大議題。
究竟該怎麼控制跟防止使用者成癮也是一個問題。
業者想不想這麼做又是另一個問題,甚至業者的希望就是讓使用者上癮。
政府該不該介入,並規定業者應該做出限制,避免使用者成癮,也是一個問題。
有些狀況,輿論會覺得自己應該要為自己的行為負責。像手遊的心理沈迷陷阱,人們普遍認為使用者自己應該負責。(中國例外,中國管了課金上限跟遊戲時間上限)
有些狀況輿論則認為應該要管理,像菸、酒、賭博,有些地方連大麻也被允許用在娛樂用途,但有限制。
有些狀況,輿論會認為應該要完全禁止,例如毒品。
我同意管制,但不同意很激進的禁止,或相當於禁止的管制
突然發現我好像沒說自己的立場,我是"無法阻止AI也只能看著事情發生"的,所以不會覺得應該要關掉公司或是禁止AI,但是要有人看清楚這些公司背後的立意與目的,需要加以制約或是找出正確的產品推出形式。並非禁止而是加速參與(合作)。
但心理與社會研究都要時間,肯定跟不上AI變化的速度,屆時要怎麼介入也會是個問題,所以混亂還會再維持一段時間吧,這點確實無可避免QQ
SAO還沒出來前我是不會相信ㄉ那這些機率、字與字連結的可能組合怎麼來的?這就是模型訓練階段時,使用的訓練文本的作用。
例如A社群媒體上的對話都很偏激、偏頗,那訓練出來的模型就會傾向生成有毒的內容,輸入「過」,「過世」的機率會很高。
LLM就是機率統計模型,相當於超厲害的文組高材生,強記了各種對話的應對、公式,知識等等,但是它其實不懂內涵不會判斷、決策。
就這層面來說,AI是否真的是「智慧」這點就無足輕重,或者解析的過程是否跟人類相似也不是重點了
而製作這樣的AI的公司/組織,可以影響很大一批被「AI」控制的人,這不可不慎。所以有人提倡國家主權LLM模型的重要性,這是對的。
這幾年機器學習太熱門,大眾講到AI通常是在指機器學習。
然後你講的國家主權大型語言模型是指交給國家去主導,然後其他人都來/只能使用這個模型嗎?這聽起很像是反烏托邦會出現的狀況。
我想中國會很愛這一套,因為當國家想控制人民的思想的時候,操作國家主權大型語言模型就能有效的影響思想了。