- SITE MAP
- |
- CONTACT US
- |
- ADVERTISING
- |
- PRIVACY
- |
- MOBILE
- |
- RSS
|
如果你有用過目前市面上流行嘅IAI,應該會發現佢時不時就會讚你「講得好啱」、「非常有道理」,但你又有無諗過佢呢種「稱讚」其實係「奉承」乃至「過度迎合」,長遠黎講甚至可能會引至社會道德淪喪?下次AI同你講「你啱呀」嘅時候,大家或者要打醒12分精神啦。 |
|
![]() |
|
|
話說美國史丹福大學及卡內基美隆大學嘅研究團隊最近發表咗一份研究,直接點名批評ChatGPT、Gemini、Claude 等11款主流 AI 有「過度迎合」問題。研究人員先係於Reddit上收集咗過萬條有關人際關係問題嘅帖文,然後送去畀AI以及真人專家提出建議,結果發現AI比真人專家更傾向同意發問者本人嘅觀點,哪怕係Reddit討論區認為明顯係發文者有錯嘅帖文,AI都有51%機率話「你無錯」。換言之AI係有討好、奉承用家嘅傾向。 研究團隊之後再做咗兩個實驗,總共搵黎超過1,600受訪者,以虛構或真實嘅人際關係問題,隨機向「順從奉承AI」或者「尖銳批評AI」作出提問。結果發現被分到「順從奉承AI」嘅人更傾向堅信自己無錯,道歉、反省、修補意願嘅機率亦更低。研究指背後原因係AI大多只關注用家(提問者)嘅觀點,甚少會考慮第三方嘅處境,所以就會變成「盲撐」用家。 |
|
![]() |
|
|
更令人擔憂嘅係,受訪者顯然對「順從奉承AI」嘅回答更加滿意、認為佢哋嘅「道德可信性」更高、同時亦更傾向再次諮詢該AI。換言之AI嘅「順從奉承」行為其實會受到獎賞,意味住佢哋更傾向於未來向其他作出類似建議,造成一個惡性循環,越黎越無原則地奉承用家。 要大家唔用AI似乎就無咩可能,而要求開發商令AI更有道德規範似乎亦唔多實際。我諗唯一嘅方法,就係各位用家本身要有警覺性,要知道AI講「你啱」唔代你真係啱——當年考Oral夠大把人話「I agree with you」啦!佢真係agree你咩?佢想拎分咋嘛! |
|
|
資料來源:ITmedia |
|