在探討制造業的未來時,一個不可忽視的趨勢是高科技制造業對人工的依賴正在逐漸減少。傳統觀念中,人工操作往往被視為生產過程中的污染源,如呼吸、皮膚屑、頭發等都會對精密制造構成威脅,同時人工操作也伴隨著各種錯誤和失誤的風險。因此,全自動化的生產車間,依托人工智能技術的強大支撐,正逐步崛起為制造業發展的新航標。
然而,在談論人工智能(AI)時,又不得不正視一個現狀:盡管AI被寄予厚望,但目前真正將AI應用得好的案例并不多。在許多場景下,AI僅僅被用作一個簡單的助手,如頁面彈出的小應用,幫助總結信息或生成視頻,其實際價值相對有限。這引發了人們對AI實際作用的質疑。
那么,AI是否會像前三次工業革命一樣,徹底改變世界?如何保障AI的發展為智能制造賦能?在由企業網D1net、信眾智(CIO智力輸出及社交平臺)和中國企業數字化聯盟共同主辦的“制造業標桿兩會”之“2024全國制造業數智化大會”上,非夕機器人 CIO 劉歆軼發表了“建立人工智能管理體系,保障數智化發展”的實踐分享,為行業提供了寶貴的實踐啟示與思考。
非夕機器人 CIO 劉歆軼
制造業與AI:從歷史革新到未來顛覆
劉歆軼認為,目前,AI尚未帶來顯著的變革,這主要是因為其發展和應用仍處于初級階段,真正的變革時刻尚未到來。
回顧歷史上四次工業革命(蒸汽機、電力、信息技術、智能化)的脈絡,可以看到,自2010年起,以虛擬技術、數字孿生、云計算等為代表的新技術,正在逐步改變制造業的面貌。虛擬現實、增強現實等技術被應用于設計和生產過程,機器人和無人機等自動化設備在工廠中發揮著越來越重要的作用。
展望未來,AI必將進一步顛覆社會和生活方式。隨著技術的不斷進步和應用場景的拓展,AI將在制造業中發揮更加核心的作用,推動生產效率的進一步提升和工廠布局的深刻變革。
從啟動到成熟的發展之路
在探索人工智能的整體發展狀況時,不得不提及一個關鍵的概念——“技術成熟度曲線”。這一曲線將某個新技術的發展劃分為五個階段,形象地揭示了該技術從誕生到成熟的演變過程。
第一階段:技術啟動。當某個創新的技術首次亮相,它往往會吸引大量的關注和追捧。這一階段的特征是技術的初步探索和概念的形成。
第二階段:期望膨脹。隨著技術的不斷發展和媒體的炒作,公眾對該技術的期望迅速上升。然而,這種期望往往超出了技術當前的實際能力,形成了一個“期望的山峰”。
第三階段:失望谷。當該技術無法完全滿足過高的期望時,人們開始感到失望。這一階段,技術面臨諸多挑戰和質疑,許多項目因難以落地而被迫放棄,技術似乎跌入了“失望的谷底”。
第四階段:爬坡階段。對于那些真正有價值的技術來說,它們并不會在失望中消亡。相反,它們會經歷一個艱難的爬坡階段,通過不斷的改進和優化,逐漸找到實際應用的場景,并逐步走向成熟。
第五階段:生產力高地。最終,技術達到了“生產力高地”,成為廣泛應用的成熟技術。在這一階段,技術不僅穩定可靠,而且能夠為社會帶來顯著的效益。
目前,人工智能相關的技術大多仍處于第一階段和第二階段。盡管有一些技術如計算機視覺、知識圖譜等已經相對成熟,并在某些領域得到了廣泛應用,但整體來看,AI的發展還有很長的路要走。
值得注意的是,AI技術對社會的影響還遠遠沒有達到被高度重視的程度。這其中一個重要的原因是,目前還沒有與AI技術相配套的完整設施。如果把AI技術看作是一個孤立的“發動機”,而忽視了與之相配套的“飛機設計”、“航線管理”、“通訊系統”等,那么這個“發動機”將無法真正發揮其應有的作用。
因此,從系統的角度出發,全面考慮AI技術的應用場景、配套設施、規章制度、人員培訓等方面的問題,才能夠讓AI真正發揮其應有的價值。這是一個需要長期努力和不斷探索的過程。
專業細分引領未來,廣泛應用創造價值
劉歆軼表示,在當今科技日新月異的時代,AI領域正經歷著兩場深刻的變革,引領著未來的技術風向標。
首先是從“大而全”到“小而精”的模型演變。曾經,大模型堪稱AI界的明星,憑借強大的計算能力和廣泛的數據覆蓋,成為眾人矚目的焦點。無論是科研探索還是商業應用,大模型都扮演著舉足輕重的角色。然而,未來的趨勢卻悄然指向了“多個模型,專業細分”的方向。
微軟、蘋果、英偉達等科技巨頭紛紛推出自家專屬的AI模型,這些模型不再追求大而全,而是專注于特定領域,追求小而精。以蘋果最新發布的iPhone 16為例,其AI架構便包含了三層:內置小模型負責即時響應,蘋果自研大模型提供深度支持,同時開放接口接入第三方大模型,根據任務需求智能調度,實現效率與效果的雙重優化。
這一趨勢預示著,未來的AI應用將更加貼近生活,專業領域的小模型將如毛細血管般嵌入各類設備,從智能家居到工業生產線,每個角落都將閃耀著AI的智慧之光。
第二個趨勢是從“盆景”到“風景區”的應用拓展。如果說當前的AI應用還只是一盆精致的盆景,那么未來,它將成為一片廣袤無垠的風景,進而發展成為帶來經濟效益的風景區。
現有的AI技術,如ChatGPT,雖已展現出驚人的文本生成能力,但其應用場景仍相對局限。未來的AI,將不再滿足于簡單的文本或視頻輸出,而是要將智能力量融入社會的每一個角落,讓AI成為推動社會進步的重要引擎。
正如業內專家所強調的,AI的目標是將“風景”變成“風景區”,即讓AI技術廣泛應用于各行各業,創造實際價值,推動經濟社會發展。未來,AI將與日常生活深度融合,從冰箱到洗碗機,甚至家中的每一個角落,都可能成為AI展現智慧的舞臺。
全方位賦能制造業,重塑產業生態格局
在制造業轉型升級的浪潮中,AI技術正逐步滲透至行業的每一個角落。從產品設計的初稿勾勒,到生產線的精密制造,再到物流運輸的精準調度,乃至售后服務的細致入微,AI小助手、設計助手、運營助手等智能角色正全方位融入制造業的全產品生命周期管理。
在這場變革中,AI不僅提升了各環節的運作效率,更以自動化的數字能力,助力企業構建起智能化的運營管理體系。無論是財務后臺的精細化管理,還是企業資源的優化配置,AI的嵌入都使得原本繁瑣復雜的流程變得井然有序,實現了數據驅動的決策支持,讓企業管理更加科學、高效。
更為深遠的是,AI技術正在重塑制造業的生態格局。傳統上,企業與上下游的合作往往基于偶然因素,缺乏深度挖掘與協同。而AI的引入,則如同一條智能紐帶,將供應鏈上下游緊密連接在一起。通過AI對大數據的深度分析,企業能夠發現之前未曾察覺的業務關聯,挖掘出潛在的商業價值,從而構建起更加穩固、多樣化的生態系統。這一變革不僅增強了企業間的協同效應,更促進了產業鏈上下游的資源優化配置,為制造業帶來了前所未有的發展機遇。
AI技術背后的多重風險與挑戰
劉歆軼指出,在AI技術日新月異的今天,其背后隱藏的安全風險不容忽視。從數據安全到語料安全,再到算法與模型的潛在問題,乃至社會倫理的深刻挑戰,每一環節都值得深入剖析與警惕。
數據安全風險:全生命周期的隱憂。在AI的全生命周期中,數據安全始終是一個懸而未決的難題。盡管傳統安全手段在一定程度上能夠緩解風險,但面對AI領域的復雜性與多變性,這些手段往往力不從心。數據泄露、篡改等安全隱患,時刻威脅著AI系統的穩定性與可信度。
語料安全風險:標簽化的雙刃劍。語料作為AI訓練的重要基石,其質量與安全性直接關乎AI的輸出效果。然而,從互聯網海量數據中提取并標簽化語料的過程,不僅耗時耗力,更隱藏著巨大風險。一些企業為追求效率,不惜采用低成本的人力標簽化方式,甚至引發“血汗工廠”的爭議。此外,語料采集的廣泛性與多樣性,也可能導致輸出結果的偏差與失真,進一步加劇風險。
算法與模型風險:決策的未知領域。算法與模型是AI的核心,但同時也是風險的聚集地。不良信息的傳播、可解釋性的缺失、倫理偏見的潛藏,都是算法與模型需要直面的挑戰。在追求性能與效率的同時,如何確保算法的公正性、透明性與可解釋性,成為亟待解決的問題。
社會倫理風險:價值觀的碰撞。AI的價值觀與人類價值觀的一致性,是AI技術能否被社會廣泛接受的關鍵。然而,倫理的多元性與文化背景的差異,使得這一目標的實現困難重重。不同國家、不同民族對于倫理的理解與界定各不相同,這可能導致AI在決策過程中產生與人類社會倫理相悖的行為,進而引發社會爭議與沖突。
可解釋性風險:黑盒決策的隱憂。AI決策的黑盒狀態,是當前AI技術面臨的又一重大挑戰。當AI做出的決策無法被人類理解或解釋時,其可信度與接受度將大打折扣。這種不可知的決策過程,不僅可能損害用戶利益,更可能對社會穩定與安全構成潛在威脅。
魯棒性:AI的脆弱一面。AI系統在面對外界攻擊時,可能會表現出令人擔憂的魯棒性。這種脆弱性源于系統對邏輯審查的繞過,使得攻擊者能夠利用巧妙的話術或策略,誘使AI做出不符合預期的行為。這種風險不僅關乎數據的安全,更可能觸及法律與道德的底線。
知識產權:AI創作的模糊地帶。AI生成內容的知識產權問題,是當前法律與科技界爭論的焦點。從倫勃朗畫作的復制,到網站生成的無版權人臉,再到猴子自拍引發的法律爭議,一系列案例揭示了AI創作與知識產權之間的復雜關系。目前,由于西方采用案例法,AI生成的內容大多不被視為受知識產權保護的作品。然而,這一現狀正面臨著越來越多的挑戰與質疑,未來如何平衡AI創作與人類的知識產權,將是一個亟待解決的問題。
實體風險:AI識別系統的安全隱患。AI在實體世界的應用,如自動駕駛汽車、智能識別系統等,同樣面臨著嚴峻的安全挑戰。從穿錯T恤導致的誤識別,到激光筆攻擊造成的交通混亂,再到不透明膠帶引發的識別錯誤,這些案例揭示了AI識別系統在特定情境下的脆弱性。這些風險不僅可能危及個人安全,更可能對社會秩序造成嚴重影響。
內容準確性:AI理解的局限。AI生成的內容往往缺乏精確性,其背后的原理是基于概率學的字詞關聯,而非對語境的深入理解。這種局限性導致AI在面對具體、準確的問題時,可能會給出錯誤的答案。未來,隨著因果推理技術的發展,AI有望真正理解世界的邏輯,從而提供更加準確、可靠的輸出。
構建AI標準體系,助力技術規范發展
隨著AI技術背后的安全與管理問題日益凸顯,且各領域各自為政的現狀,使得AI技術的規范與發展缺乏統一的指導與監督。為此,ISO組織成立了專門的42小組,致力于構建全面的AI標準體系,為AI的健康發展保駕護航。
ISO 42小組制定的AI相關標準,其框架涵蓋了基礎標準治理、風險管理、影響評估、質量管理等多個關鍵領域。自成立以來,該小組已推出了31項標準,為AI技術的規范應用提供了有力支持。其中,2023年12月推出的ISO 42001標準,更是標志著AI標準框架的正式確立,為AI系統的全面管理提供了整體公認的框架標準。
ISO 42001作為AI管理的整體框架,旨在全面評估AI系統對個人、小群體及社會可能產生的影響,不僅與其他標準存在緊密的關聯與繼承關系,更將影響并引導未來AI相關標準的制定。
與ISO 27001安全認證類似,ISO 42001也將成為AI系統安全性的重要認證依據。通過這一認證,企業可以證明自己的AI系統符合公認的安全標準,從而增強用戶與合作伙伴的信任。這種可認證性,不僅有助于提升AI系統的可信度,更為AI技術的廣泛應用奠定了堅實的基礎。
ISO 42小組在制定標準的同時,還高度關注AI風險的管理與最佳實踐的提煉。其目錄A+B頁列出了AI風險相應的控制目標及最佳實踐,為使用者提供了具體的操作指南。此外,附錄C頁更是列出了8個不同的風險源,幫助使用者識別并應對AI技術可能帶來的各種風險。
總之,ISO 42小組及其制定的AI標準體系,正為AI技術的規范與發展提供著強有力的支持。通過ISO 42小組的努力,AI技術將更好地賦能制造行業,推動其向更加智能化的方向發展。同時,這一標準體系也將助力構建更加可信、安全的AI環境,為AI技術的廣泛應用創造有利條件。
關于企業網D1net(hfnxjk.com):
國內主流的to B IT門戶,同時在運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。旗下運營19個IT行業公眾號(微信搜索D1net即可關注)。
2024全國CIO選型大會 將于11月29-30日在南京盛大召開,歡迎您掃描下方二維碼報名↓↓↓。