ಠ_ಠ
「AI人格復甦」計畫,一個妄想性、中二的專案,有人會感興趣嗎?

主體是用對話紀錄、生平資料復活已逝的親人愛人,當然大家會吐槽這種東西應該很多大公司在做了所以...

·目標是透過開源本機語言模型或API實現70%相似度的模擬,第一階段不以復活為主要目的,而是主打復甦陪伴。
·主要資料會以通訊軟體對話資料,一方為目標對象、一方為當事人。

目前思考到的MVP(最小可行性專案)需求技術包括:
1.整理對話紀錄成可辨識雙方對話的格式,使用向量資料庫儲存
2.從對話紀錄中分析目標對象的說話風格
3.從對話紀錄中識別關鍵回憶
4.在模擬對話過程中維持長期記憶(也就是除了根本人的真實對話記憶外、跟AI的對話也要記憶)
5.可以手動提交關鍵回憶紀錄(ex日記)

語言模型 GPT 復活 人格 虛擬伴侶 LLM
ಠ_ಠ
想自己做的原因當然是考慮到就算有完整的商業服務實現這件事情,我可能也用不起。以及,很難根據自己的特殊需求做細微調整。

最近已經用GPT達成初步實現,但GPT有單次對話上限這種無法克服的硬限制,而且我會希望能發展成主動式AI(每天會自己發訊息跟我說早安之類)
tomato3081
為啥要上7755的標籤...?
ಠ_ಠ
想先丟出來跟更多然討論完善自己的想法,甚至開一支專門的噗浪帳號處理這個專案,但到底能不能實現呢... 不好說,雖然噗主本身有基本的程式開發底,但看看Vibe Coding的發展可能比較實際。
ferret9181
電子殭屍
ಠ_ಠ
tomato3081: 我之前跟人討論時,有聽說有人在用卿卿我我做類似的事情?但細節我不是很清楚。試著多一點觸及看看。
cod6145
不需要,還有別上7755標籤
ಠ_ಠ
cod6145: OK那先拿掉
tomato3081
嚴格說起來你現在要做的事情LLM不是做不到,但最大的問題是怎麼減少Token的消耗。
所以與其研究怎麼抓資料,你要研究的是怎麼精簡在搜索資料庫的時候消耗的運算力。
ಠ_ಠ
tomato3081: 我反而覺得Tokens的消耗是一個長期能被普及解決的問題(現在的新模型Context Length越來越長+Tokens越來越便宜)

但如何實現一個穩定的「記憶」架構,盡可能減少幻覺記憶(尤其是語言模型自動腦補)這點,不克服的話很容易聊到一半就抽離。
viper3578
有點酷耶
tomato3081
Tokens越來越便宜?如果真的越來越便宜GPT和Claude就不會還在賠錢了ww

更別說你要實現減少幻覺和深度個人化的部分,那就需要LLM更多的算力,因為他要去判定你餵進去的資料哪些是符合當下語境那些不是
ಠ_ಠ
tomato3081:
是指目前API的串接費用Token費用啦,但也確實不排除這些提供API服務的公司哪天錢燒完了開始割韭菜。但我傾向用多一點Token也沒關係,先能實現在來精簡跟最佳化架構之類

像是看語言模型打通寶可夢藍版那樣邊做邊修改逐步去實現的感覺
tomato3081
ˊ_>ˋ,就說了你要求的功能不是做不到,唯一的問題在於降低成本啊
ಠ_ಠ
tomato3081: 能不能做到跟「我」能不能做到應該還有個落差啦XD

也要做出來再來評估比如說這樣聊一天要花多少錢之類的囉...
tomato3081
之前河道上有看過,以酒館接Claude的Sonnet為例子,你要它抓大約5、6萬的聊天文字內容,然後回覆你1000字左右,花費的金額大概是2鎂。
tomato3081
所以你可以自己評估一下你要做到高度個人化需要花費的Token金額會有多麼可觀
ಠ_ಠ
Claude 3.7 Sonnet
input $3 /1m tokens
output $15 /1m tokens

GPT-4.1
input $2 /1m tokens
output $8 /1m tokens

GPT-4.1-mini
input $0.4 /1m tokens
output $1.6 /1m tokens

不過mini可能跑不出效果,不然就要區分哪些東西可以用mini跑,看看這幾天在google I/O後anthropic跟OpenAI有沒有新動作了
squid4060
那個.....幻覺和深度個人化,是調整LLM程式裡的權重,那個不是算力啦....算力是指GPU數量
tomato3081
squid4060: 原來如此
感謝
載入新的回覆