過去的2016年,硅谷的創業公司、獨角獸和上市公司犯過許多錯誤。《快公司》網站列出了其中的三大問題,為科技公司的未來發展提供借鑒。
1、員工隊伍多元化不要開倒車
兩年前,蘋果、Facebook、谷歌(微博)、Twitter和其他主流公司發布了員工多元化報告,希望改變員工隊伍構成單一的問題。然而,盡管所有公司都將多元化定位為優先工作,但提升包容性的進展一直很慢。在大部分這些公司,黑人員工的比例一直低于5%,而女員工的比例則不到1/3。在管理崗和技術類崗位上,這些比例還要更低。由于缺乏進展,多家公司,包括Twitter、Pinterest、eBay和Salesforce,都推遲了最新多元化報告的發布。
盡管進展不大,但放棄員工隊伍多元化的努力并不是個好主意。關于多元化報告,最關鍵的一點是,確保多元化是一項高優先級工作。報告顯示,頂級科技公司中的員工構成仍然非常單一。為了推動民族、種族和性別的多元化,我們需要繼續探討包容性的問題。
2、算法存在局限
2016年,Facebook曾多次嘗試用技術去取代人工判斷,這也向我們證明了計算機算法存在的局限。2015年底,Facebook在巴黎的公布襲擊之后立即啟用了安全確認產品,而在貝魯特的自殺式襲擊后卻沒有這樣做。這遭到了批評。當時,Facebook表示,巴黎恐怖襲擊是該公司首次在恐怖襲擊事件中啟用安全確認功能(該功能通常用于自然災害)。2016年,Facebook設計了一種方式,當許多人討論當地的災難事件時自動觸發安全確認功能。緊急響應組織對于Facebook這一功能的推出感到擔憂,因為Facebook將有權判斷,局面是否算得上危機。
瑞貝卡·古斯塔夫森(Rebecca Gustafson)2016年早些時候表示:“在緊急響應領域,我們討論的最重要問題在于,錯誤的信息比沒有信息更可怕。緊急響應組織的反應太慢會遭到批評,但科技公司的速度已經扭曲。”
在2016年的美國大選周期中,Facebook平臺上的假新聞問題也備受批評。關于Facebook傳播不實新聞的問題,Facebook CEO馬克·扎克伯格(Mark Zuckerberg)表示,社區的標記將有助于阻止虛假內容,而Facebook并不希望成為事實的仲裁者。無論是安全確認功能還是假新聞的傳播都表明,算法還無法區別真實信息和夸大的信息。在受到公開壓力之后,Facebook宣布將與第三方合作,標記虛假新聞。未來,可疑的新聞將會被標記,在消息流中的排序將降低。
不過,2016年帶來的一條經驗在于,低效問題無法完全通過機器去解決,許多問題仍需要人工介入。
3、用戶永遠正確
2016年,我們再次看到,滿足用戶需求有多么重要。Facebook是這樣的例子之一,而Evernote則是另一個例子。近期,Evernote發布了新的隱私政策,規定用戶的筆記將被Evernote負責機器學習技術的員工定期評估。Evernote CEO解釋稱,分享給員工的筆記將會被刪除識別信息,但用戶仍對此感到擔憂。在引發強烈反彈之后,Evernote決定將這一項目改為自愿參與。根據新政策,只有對同意參加項目的用戶,筆記才會被分享給Evernote員工。
杰西卡·阿爾芭(Jessica Alba)的Honest Company被控更改了洗衣粉的配方。此前《華爾街日報》報道稱,Honest Company使用了椰油醇硫酸酯鈉。2016年,Honest Company遭遇了一系列的用戶投訴,質疑該公司的產品是否真的天然或有機。Honest Company對《華爾街日報》表示,該公司調整配方是為了“優化產品的效果”。
對于2017年,這些有何借鑒意義?隨著科技公司更深入地探索機器學習、無人駕駛汽車,以及其他類型的自動化,需要記住的一點是,我們要看到技術的局限性,并記住人工所擅長的領域。透明度很關鍵,隱瞞信息將損害此前所建立的關系。此外,在開發新產品時,需要思考你的業務能給世界帶來哪些積極改變,并傾聽用戶的意見。