迄今為止,使用傳統方法,使得加密數據可以使機器學習系統如此緩慢,以致于幾乎無法使用。
然而,值得慶幸的是,美國MIT提出一種GAZELLE形式的解決方案,這項技術使用加密卷積神經網絡且不會出現急劇減速。更關鍵的是將兩種現有技術融為一體,避免了這些方法產生的常見瓶頸。
首先,用戶依靠“亂碼電路”方法將數據上傳到AI,該方法采用輸入并向會話的每一方發送兩個不同的輸入,為用戶和神經網絡隱藏數據,同時使相關輸出可訪問。然而,如果該方法被用于整個系統,則通常過于密集,因此MIT在發送給用戶之前,使用更高要求的計算層的同態加密(它既取又產加密數據)。同態方法須引入噪聲才能工作,因此它只限于在傳輸信息之前一次壓縮一層。簡而言之:MIT正在根據每一方做得最好的方式分擔工作量。
測試結果表明,其方法性能比傳統方法快了30倍,MIT承諾按照他們的要求將所需的網絡帶寬縮減一個數量級。傳統方法迫使公司和機構要么建立昂貴的本地神經網絡,要么完全忽略基于AI人工智能的系統。而MIT提出的云AI方法將會導致更多使用基于互聯網的神經網絡來處理重要信息。例如,醫院可以讓AI發現MRI掃描中的醫學問題,并與其他醫院專家或醫生共享,而不暴露患者數據和隱私。敏感數據即保持安全性,又保持時效性。