close

上個月人們在Facebook分享了幾個令人震懾的影片,內容是關於敘利亞兒童遭到化學武器攻擊後的畫面,網路上也紛紛流傳這支影片,由於這些畫面令人震驚,因此Facebook選擇在影片加上警語,而這些畫面同時也引起國際的關注,並讓人重新審視敘利亞的處境。臉書延攬各界專家當審查員以確保社群網站安全。圖/歐新社 分享 facebook 每天有超過10億人使用Facebook,用戶以各式各樣的語言發布貼文,其中僅有非常少數的用戶貼文被回報並接受審查,審查的議題範圍非常廣泛且複雜,從霸凌到仇恨言論或是恐怖主義,因此,要設計一套能夠確保人們安全且兼顧分享自由的審查制度,意謂著我們必須非常了解逐漸熱門的社群議題以及用戶的使用模式,且需要即時回覆每周來自全球數以百萬的用戶回報。事實上,如何真正了解貼文內容,判斷一則貼文的意圖及隱性風險是非常困難的,比如有人發布了一則恐怖攻擊的動畫影片,是否會引起人們仿效暴力或者反彈呢?當有人發布了一則關於自殺的笑話,他們只是純粹想表達幽默,或者意謂著一個求救的訊息呢?我們的目標是確保社群網站的安全,因此我們發展一套Facebook社群守則,明確規範在Facebook上什麼是允許的,什麼是不被允許的,以及背後原因為何,但並不主動與大眾分享政策的細節內容是為了防範有心人士刻意鑽漏洞。我們盡可能的保持客觀立場,但受審查的內容並不是那麼容易判別,還是會有一些不被認同的灰色地帶,像是藝術和情色並不是這麼容易去分辨,但我們發現那些數位合成的裸露照片通常比實際拍攝的更可能被歸類於色情,而我們訂定的準則就能應用在這類型的現象上。我們能區別並判斷貼文是否為一般的憤怒情緒抒發,但不接受特別指名道姓揚言傷害的文章。Facebook持續與專家及地方機構討論關於兒童安全、恐怖主義與人權議題,並隨時調整準則。然而,無論在任何國家,對於提升暴力意識與縱容暴力、表達情緒的自由及可能令人產生恐懼的內容、共同見證及目瞪口呆的分辨,都是不容易的,我們盡可能保持客觀立場。我們通常使用非常極端的假想情境來訓練審查員們,他們的使命是解決那些非常困難的案例。大約在十年前,第一版的內容標準大多是由員工個別決定的,但由於沒有兩個人對於負面言論或霸凌定義持有相同的觀點,因此決定列舉明確的定義。然而,我們同時面對來自兩方的批評聲浪,一方來自要求更多審查制度的人,另一方則是希望減少審查制度的人。 我們十分嚴謹的看待自己所扮演的角色,內部團隊都將安全當作是工作第一準則,我曾從事超過十年的刑事檢控工作,調查兒少性剝削及恐怖主義。我們的團隊還包括來自英國的反極端主義專家、西點軍校打擊恐怖主義中心的前研究主任、強姦危機中心工作人員和老師。我們深信Facebook能對這個社會做得更多,因此Facebook在4月時公布將再招募3,000名審查員來執行這份嚴格的工作,讓這些困難的決定能被簡化後快速的解決。(作者是Facebook全球政策管理總監? 296324576D2BEB92
arrow
arrow

    nf52bb9x3t 發表在 痞客邦 留言(0) 人氣()