對抗假消息 臉書辦不到

 

目前對臉書最多的批評,是它對民主社會的負面效應:仇恨言論、假消息、極化。每當事情嚴重到被搬上美國國會聽證會檢視,臉書總會承諾要採取措施,把上述負面效應降到最低。

二○一八年揭露的劍橋分析公司醜聞中發現,臉書曾外流五千萬用戶數據,被用於操縱美國二○一六總統大選,使得臉書市值狂跌逾千億美元。

為了止血,臉書任命人工智慧工程師昆諾尼洛為「社會與人工智慧實驗室」主任,推動AI學習更公平的演算法;該小組後來與其他單位合併,改成一個滿諷刺的名字:負責的人工智慧(Responsible AI)。

之後又一場總統大選,美國發生群眾攻進國會大樓事件。臉書不是說要負起責任,對抗極端、歧視言論、防堵假新聞,怎麼除了手動禁掉川普帳號,什麼都沒改變?

麻省理工科技評論十一日刊出一篇專題:臉書怎樣對傳播假消息上癮;作者凱倫.郝(Karen Hao)在長期採訪昆諾尼洛後告訴讀者:臉書的AI最愛假消息,而長年參與打造臉書AI的昆諾尼洛也拿它沒辦法。

原因其實不複雜。專題指出,由於札克柏格的中心思想就是擴張。臉書的AI學習原則是儘可能提高互動,只要會損及互動的措施都將被擱置。而假消息、極端與歧視言論最能帶來互動,因此更容易露出。昆諾尼洛的小組不是沒在做事,但重點放在去除AI偏誤,例如某些類型工作偏向朝有色人種推播,另一些工作朝白人推播;但對於分辨並降低極端言論,因為牴觸「不能損及互動」的最高指導原則,所以無計可施。

臉書當然有用戶規範來排除不當內容,不過上文指出,這些不當內容的互動,首先必須高到被AI注意,才會在越過某條線後被禁掉,而非一開始就被壓低;而各種操作假消息的農場,常將被禁掉的內容略加改造,讓AI再從頭學起。總之就是「道高一尺、魔高一丈」,而利潤歸臉書,傷害歸全民。

了解臉書AI的運作原則,應該可以了解,愈是在動態牆上熱議的話題,就會有愈多假消息、極端與歧視言論,可信度就愈要謹慎看待。不管臉書如何承諾,本質上還是以擴張用戶、提高互動為最高指導原則,而假消息與極端言論正是用戶互動的重要來源,沒有它們,臉書就少了成長動力。要減少假消息的傷害,只有靠自己,不要期待臉書。

(作者是世新大學傳播博士)

< 資料來源:《自由時報》〈自由廣場〉引用網址 >
分享文章:

最新文章: