精進波羅蜜
是說前兩個禮拜的AI課,教到如何為大型語言模型(LLM)訓練小型的LoRA(Low-Rank Adaptation)模型,來補足特定的資料。回家以後認真的設定好了環境,在網路上抓了所有我可以找到的爌肉飯文字資料,包括歷史發展、知名店家,食譜作法,全部轉成文字檔以後,整整訓練了40幾個小時,終於弄出我的爌肉飯LoRA模型,理論上把這東西接上我的Llama模型以後,原本跟爌肉飯不太熟的語言模型,就會變成爌肉飯專家,但是出乎我意料的是事情並沒有我想的那麼簡單。我實在百思不得其解,丟入訓練的資料中,已經有很詳細的爌肉飯歷史介紹,這是已經有答案的簡單題目,為什麼我的語言模型還會吐出很獵奇的答案??(不過這大概也預示了AI的危險性,這東西只是假裝會思考而已。)
https://images.plurk.com/5ppN7m6hNStZnwnmbxtbw5.png
欸Juo
AI本來就很會一本正經地話唬爛
永遠的真田幸村
XD
⎛⎝๑≿ܫ≾๑⎠⎞
「他的家人將他製成肉醬放入木桶保存」


這AI是被餵了什麼奇怪的資料?
旅人🧿望台灣順遂
⎛⎝๑≿ܫ≾๑⎠⎞ :
是子路,加了一點子路
兔兔
⎛⎝๑≿ܫ≾๑⎠⎞
藤原⎝(ΦωΦ)⎠♧燒☆毀♤
幹笑死,子路死不瞑目
總是在Lab裡的 阿伊
比克騎著豬σ弌弌弌⊃
trifire
trifire
子路 也很地獄梗啊
trifire
筍子配料 也不精確啊 ....
沉默潛艦
tzuchun ಥ_ಥ
可以用RAG技術,對於特定文本的問答能更精準,成本也不會太高
草木竹石
載入新的回覆