交互式軟件需要用戶通過一個過程來引導,這是過去幾十年人類所習慣的交互方式。隨著人工智能的發展,現在很多步驟已經或者可以被自動化了。機器學習可以自動化任何非自動化的步驟,一個軟件架構師應該如何在系統中找到自動化的限制和適當的角色呢?
在交互式文字處理的早期,用戶必須完成所有工作——輸入、布局和檢查。現在,拼寫和語法檢查是標準化的,根據模板的自動布局是常規的。接下來是什么?自然語言發生器會吸收人類的想法和數據,然后產生一個合適的敘述嗎?這一點已經在天氣預報上有所體現了,NLG技術預計將提供一個文本敘述以及廣泛使用的分析系統“儀表盤”。
用戶在每個交互系統中的角色都會改變,如果所使用的軟件是交互式的,那么需要有一個機會來增加自動化,從而提高用戶的工作效率。另外,需要記住,機器學習可以實現自動化,而無需理解任務。
無需理解?
考慮一下老式的數據輸入,將信息從手寫表格轉換成計算機系統。與光學掃描儀不同的是,人類會以不同的角度看待模糊的手寫體,瞇著眼睛,靠近光線,也許會問同事的意見。更重要的是,人類理解語境。
機器學習理論的話,可以添加一個學習層。這將需要掃描輸入圖像,然后建立這些圖像和由數據錄入員產生的輸出之間的相關性。當相關性足夠好時,將學習層轉換為自動化層,以生成包含所有學習相關性的輸出。Hey presto - 自動輸入數據,所有的任務來自現有用戶分配的工作。簡單來說,就是通過不斷地模型訓練和對比,選出最精確的模型來進行自動化。
這就是理論,一個很多機器學習學者張口就來的理論。我從來沒有聽說過機器學習手動數據錄入任務自動化的完整解決方案,但這種方法確實可以改變軟件的語言翻譯,也重新提出了在交互式軟件中是否需要每個用戶行為的問題。
互動意味著現在
工程軟件是交互式軟件的沃土 - 動態圖像,上下文感知菜單,快速點擊響應序列來創建和操作設計數據,除了在模擬結構或流體流動模擬背后的數值計算耗時過長。
今年,Ansys展示了其“Discovery Live”軟件。這使用圖形處理單元(GPU)的并行處理能力來提供仿真結果,作為設計變更的交互式響應的一部分。
這將引發產品研發團隊工作方式的變化。
交互式仿真將使仿真成為預先過程的一部分,改進早期設計選擇,消除(或盡可能減少)針對所有潛在選擇的選定子集的較長周期后續仿真需要。
對于人的正確定位
在這一點上,智能手機顯然已經領先了,很多手機應用會發現便捷的互動序列,對用戶意圖做出類似假設,并且使得大多數選擇是不必要的。
雖然很重要,但這些都是相當低級的,詳細的設計和優化選擇以及更大的圖片選擇是需要的。
未來可能的三種自動化選擇:直接任務自動化(通常被實現為新功能); 基于機器學習的自動化(可能捕捉和復制現有的工作方式); 將現有的“批處理”軟件轉換為交互式序列(可能由特殊硬件,云容量或數據訪問啟用)。
要作出這些選擇,開發團隊需要能夠看到他們的交互系統如何適應其環境 - 其他系統和業務流程。要打破的重要一面是用戶將繼續以同樣的方式做同樣的事情的假設。