٩( 'ω' )و正太控阿冰
@koorikake
Tue, Apr 29, 2025 12:47 AM
8
1
カ゛ク゛ヒ゛ー (@gugby_) on X
剛剛滑到一個感興趣的推文,延伸到一個不太熟悉的單詞:「權利的濫用」(或亂用,漢字兩字共通)。
信玄公旗掛松事件 - Wikipedia
簡單來說,就是當一方的權利行使影響到另一方的權利,如果目的或方式太過不正當,導致違反公平、誠信原則的話,這個行使行為就會被否定,被視為無效。
٩( 'ω' )و正太控阿冰
@koorikake
說
Tue, Apr 29, 2025 1:35 AM
信玄公旗掛松事件的「権利の濫用」認定,是指鐵道院(國家)運行火車排放煤煙導致私人財產受損,超越合理限度,構成權利濫用。
٩( 'ω' )و正太控阿冰
@koorikake
說
Tue, Apr 29, 2025 1:48 AM
當中有點悲傷的是,雖然這次案件成為「權利濫用」的案例,讓這個概念開始在日本法律中明文化;但這案件的後續,卻是賠償金從一開始請求的3000円,在正式訴訟時打對折到1500,到打完大院回到地方時剩499,鐵道院上訴後甚至扣到最終只賠72円60銭,原訴還要付9成訟費。
٩( 'ω' )و正太控阿冰
@koorikake
說
Tue, Apr 29, 2025 1:50 AM
Tue, Apr 29, 2025 1:51 AM
=====
在查這件事的時候出現了案外案。
我本來是期待ChatGPT幫我整理「權利的濫用」這個概念,但得到了完全不符事實的解釋:「地主主張財產權跟國家槓上」。好奇的話可以看我跟ChatGPT的來往:
ChatGPT - 権利の濫用簡単解説
٩( 'ω' )و正太控阿冰
@koorikake
說
Tue, Apr 29, 2025 1:52 AM
這再次證明一件事。ChatGPT處理少數資料時效果算是很不錯的,但當資料量超過一定值時,它的回覆將會非常不可靠,甚至會生成跟事實完全不符的結果。這時候還是得小心檢證,把資料一點點餵給它去讀,才不會錯誤引用結果。
٩( 'ω' )و正太控阿冰
@koorikake
說
Tue, Apr 29, 2025 1:54 AM
最近也有冏星人程式翻車事件,vibe coding寫了一個程式抓所謂的「中共同路人」結果一堆誤判的例子。AI是很方便沒錯,但不要完全把自己的命脈交給AI,還是得小心求證。
可以想成是,AI就像是一個助手,可以處理很多事情,但助手是會出錯的,完全可以盯它罵它要它改過來。作為執行工作的最終責任人,如果是選擇直接引用助手端出來的資料,就是得對它負責任。
載入新的回覆
在查這件事的時候出現了案外案。
我本來是期待ChatGPT幫我整理「權利的濫用」這個概念,但得到了完全不符事實的解釋:「地主主張財產權跟國家槓上」。好奇的話可以看我跟ChatGPT的來往:
可以想成是,AI就像是一個助手,可以處理很多事情,但助手是會出錯的,完全可以盯它罵它要它改過來。作為執行工作的最終責任人,如果是選擇直接引用助手端出來的資料,就是得對它負責任。