主持人:“這就是一個多月前CATNIP在CCES上的第一次公開亮相,但當時人們對它背後的技術,以及即將引發的爭議仍一無所知。今天我們有幸請到了CATNIP的發明者、國家重點實驗室項目負責人、人工智能及圖像識別專家—宋秋鳴教授。宋教授你好。”
一名西服男子入鏡,四十歲上下,表情略拘謹。
宋教授微笑:“主持人好,大家好。”
主持人:“先問一個小問題,為什麽要給這套係統起名叫貓薄荷,在我們女生看來這很有點賣萌的意味。”
宋教授:“嗬嗬。確實如此,其實它的全稱是Camera of Architectural Transcendent Network Information Processing,也就是結構式超網絡信息處理照相機。因為我女兒喜歡貓,所以給湊了這麽一個名字。貓聞到貓薄荷時,會刺激它的費洛蒙受器,電信號傳遞到大腦,產生興奮感和一些超常舉動。我們也希望這個小東西能夠給沉悶已久的學界帶來一些新鮮刺激。”
主持人:“說得太好了宋教授,那麽能否請您用較為淺顯易懂的語言向觀眾們介紹一下這套係統的工作原理呢?”
宋教授:“有點難,我試試吧。大家知道,人工智能發展其中一個重要方向就是讓機器模擬人類大腦的思考過程,而最關鍵的第一步就是讓機器學會像人一樣接受信息。人類有非常複雜的感官係統,但信息最主要的輸入方式還是視覺,這就涉及兩大領域的識別:文字和圖像。目前在淺層感知領域,例如語音識別、文本分詞、人臉識別等已經比較成熟了,但從淺層感知到特定語義組合的映射,比如從動作姿態來分辨一張全家福中不同成員之間的關係,對一首詩歌裏的情感指向進行分類這種,目前還隻能在限定領域通過大量訓練來實現過得去的效果。至於像人類那樣複雜的認知能力,機器其實還處於非常早期的階段,大家可以看這張圖。”