[臉書] 臉書吹哨人首次露面受訪 曾揭4內幕
弗朗西斯·豪根告訴我們,她是在2019年被Facebook招募的。她說,她同意接受這份工作的唯壹條件是,她可以從事反對錯誤信息的工作,因為她曾因網上的陰謀論而失去壹位朋友。
弗朗西斯·豪根:我不想讓任何人感受到我曾感受過的痛苦。我也看到了在確保Facebook上有高質量的信息方面的風險有多大。
在總部,她被分配到公民誠信部,負責處理選舉風險,包括錯誤信息。但在過去的選舉之後,出現了壹個轉折點。
弗朗西斯·豪根:他們告訴我們,"我們要解散公民誠信部門"。就像,他們基本上是說,"哦,很好,我們度過了選舉。沒有發生騷亂。我們現在可以擺脫公民誠信部門了。"在幾個月前,我們發生了叛亂。當他們擺脫了公民誠信部門時,那壹刻我想,"我不相信他們願意真正投入需要投入的東西,以阻止Facebook變得更危險。"
Facebook說,公民誠信部的工作被分配到其他單位。豪根告訴我們,Facebook的問題根源在於它在2018年對其算法做出的改變——程序決定你在Facebook新聞源上看到什麼。
弗朗西斯·豪根:所以,你知道,你有你的手機。如果你坐下來,滾動5分鍾,你可能只看到100條內容。但Facebook有成千上萬的選項,它可以向你展示。
算法會根據你過去參與最多的那種內容,從這些選項中進行挑選。
弗朗西斯·豪根:今天,Facebook挑選內容的壹個後果是,它正在優化那些能夠獲得參與或反應的內容。但它自己的研究表明,那些充滿仇恨、分裂、分化的內容,比起其他情緒,更容易激起人們的憤怒。
斯科特·佩利:錯誤的信息,憤怒的內容——對人們有誘惑力,並持續有。
弗朗西斯·豪根:非常誘人。
斯科特·佩利: 還能讓他們留在這個平台上。
弗朗西斯·豪根:是的。Facebook已經意識到,如果他們把算法改得更安全,人們在網站上花費的時間就會減少,他們點擊的廣告就會減少,他們賺的錢就會減少。
豪根說,Facebook明白對2020年選舉的危險。因此,它開啟了安全系統,以減少錯誤信息——但她說,其中許多變化只是暫時的。
弗朗西斯·豪根:選舉壹結束,他們又把它們關掉了,或者把設置改回以前的樣子,把增長置於安全之上。
對我來說,這真的感覺這是對民主的背叛。
Facebook說,壹些安全系統仍然存在。但是,選舉之後,Facebook被壹些人用來組織1月6日的叛亂。檢察官引用了臉書上的帖子作為證據——武裝游擊隊員的照片和包括"通過子彈或選票恢復共和國即將到來!"的文字。極端分子使用了許多平台,但Facebook是壹個反復出現的主題。
襲擊發生後,Facebook員工在豪根復制的壹個內部留言板上怒斥。"......我們還沒有足夠的時間來弄清楚如何在不啟用暴力的情況下管理言論嗎?"我們尋找積極的評論,發現了這樣壹句話:"我不認為我們的領導團隊無視數據,無視異議,無視真相......"但這句話引來了這樣的回復:"歡迎來到Facebook!。我看到你在2020年11月剛剛加入......我們壹直觀察了......公司領導層多年來的胡作非為。""......同事們......為壹家不做更多工作來減輕其平台的負面影響的公司工作,是無法讓人感到安心的。"
斯科特·佩利:Facebook本質上放大了人性中最壞的壹面。
弗朗西斯·豪根:這是其中壹個不幸的後果,對嗎?臉書上沒有人是惡意的,但激勵機制是錯位的,對嗎?比如,當你消費更多的內容時,Facebook會賺更多的錢。人們喜歡參與那些引起情緒反應的東西。他們接觸到的憤怒越多,他們的互動就越多,消費就越多。
這種動態導致歐洲各地主要政黨向Facebook投訴。豪根獲得的這份2019年內部報告稱,這些政黨"......強烈認為算法的改變迫使他們在臉書上的交流中偏向負面......導致他們的政策立場更加極端。"
斯科特·佩利:歐洲各政黨基本上是在對Facebook說,你編寫算法的方式正在改變我們領導國家的方式。
弗朗西斯·豪根:是的。你正在迫使我們采取我們不喜歡的立場,我們知道這對社會不利。我們知道,如果我們不采取這些立場,我們就無法在社交媒體的市場上獲勝。
她說,傷害的證據延伸到了Facebook的Instagram應用。
[加西網正招聘多名全職sales 待遇優]
這條新聞還沒有人評論喔,等著您的高見呢
弗朗西斯·豪根:我不想讓任何人感受到我曾感受過的痛苦。我也看到了在確保Facebook上有高質量的信息方面的風險有多大。
在總部,她被分配到公民誠信部,負責處理選舉風險,包括錯誤信息。但在過去的選舉之後,出現了壹個轉折點。
弗朗西斯·豪根:他們告訴我們,"我們要解散公民誠信部門"。就像,他們基本上是說,"哦,很好,我們度過了選舉。沒有發生騷亂。我們現在可以擺脫公民誠信部門了。"在幾個月前,我們發生了叛亂。當他們擺脫了公民誠信部門時,那壹刻我想,"我不相信他們願意真正投入需要投入的東西,以阻止Facebook變得更危險。"
Facebook說,公民誠信部的工作被分配到其他單位。豪根告訴我們,Facebook的問題根源在於它在2018年對其算法做出的改變——程序決定你在Facebook新聞源上看到什麼。
弗朗西斯·豪根:所以,你知道,你有你的手機。如果你坐下來,滾動5分鍾,你可能只看到100條內容。但Facebook有成千上萬的選項,它可以向你展示。
算法會根據你過去參與最多的那種內容,從這些選項中進行挑選。
弗朗西斯·豪根:今天,Facebook挑選內容的壹個後果是,它正在優化那些能夠獲得參與或反應的內容。但它自己的研究表明,那些充滿仇恨、分裂、分化的內容,比起其他情緒,更容易激起人們的憤怒。
斯科特·佩利:錯誤的信息,憤怒的內容——對人們有誘惑力,並持續有。
弗朗西斯·豪根:非常誘人。
斯科特·佩利: 還能讓他們留在這個平台上。
弗朗西斯·豪根:是的。Facebook已經意識到,如果他們把算法改得更安全,人們在網站上花費的時間就會減少,他們點擊的廣告就會減少,他們賺的錢就會減少。
豪根說,Facebook明白對2020年選舉的危險。因此,它開啟了安全系統,以減少錯誤信息——但她說,其中許多變化只是暫時的。
弗朗西斯·豪根:選舉壹結束,他們又把它們關掉了,或者把設置改回以前的樣子,把增長置於安全之上。
對我來說,這真的感覺這是對民主的背叛。
Facebook說,壹些安全系統仍然存在。但是,選舉之後,Facebook被壹些人用來組織1月6日的叛亂。檢察官引用了臉書上的帖子作為證據——武裝游擊隊員的照片和包括"通過子彈或選票恢復共和國即將到來!"的文字。極端分子使用了許多平台,但Facebook是壹個反復出現的主題。
襲擊發生後,Facebook員工在豪根復制的壹個內部留言板上怒斥。"......我們還沒有足夠的時間來弄清楚如何在不啟用暴力的情況下管理言論嗎?"我們尋找積極的評論,發現了這樣壹句話:"我不認為我們的領導團隊無視數據,無視異議,無視真相......"但這句話引來了這樣的回復:"歡迎來到Facebook!。我看到你在2020年11月剛剛加入......我們壹直觀察了......公司領導層多年來的胡作非為。""......同事們......為壹家不做更多工作來減輕其平台的負面影響的公司工作,是無法讓人感到安心的。"
斯科特·佩利:Facebook本質上放大了人性中最壞的壹面。
弗朗西斯·豪根:這是其中壹個不幸的後果,對嗎?臉書上沒有人是惡意的,但激勵機制是錯位的,對嗎?比如,當你消費更多的內容時,Facebook會賺更多的錢。人們喜歡參與那些引起情緒反應的東西。他們接觸到的憤怒越多,他們的互動就越多,消費就越多。
這種動態導致歐洲各地主要政黨向Facebook投訴。豪根獲得的這份2019年內部報告稱,這些政黨"......強烈認為算法的改變迫使他們在臉書上的交流中偏向負面......導致他們的政策立場更加極端。"
斯科特·佩利:歐洲各政黨基本上是在對Facebook說,你編寫算法的方式正在改變我們領導國家的方式。
弗朗西斯·豪根:是的。你正在迫使我們采取我們不喜歡的立場,我們知道這對社會不利。我們知道,如果我們不采取這些立場,我們就無法在社交媒體的市場上獲勝。
她說,傷害的證據延伸到了Facebook的Instagram應用。
[加西網正招聘多名全職sales 待遇優]
| 分享: |
| 注: | 在此頁閱讀全文 |
| 延伸閱讀 | 更多... |
推薦: