陽明交通大學 電腦視覺研發中心
技術簡介 Smart Drones之AI平台開發 ─ 智慧飛行控制:
由於四軸旋翼無人機(Drone)具有高度的機動性,近年來已經被用來開發各種創新 的服務與應用情境。本計畫主要目標在於解決當脫離人眼視野或是無線通訊距離時,無人機只能盲飛而有極大的安全疑慮的問題,而所提出的主要解決方法包括:一、發展強健的「無人機人工智能飛行控制系統」,使無人機可以根據第一手(機上)的即時資訊來輔助或自主操控無人機,而避免因為訊號傳遞延遲、感測器不夠與操作者經驗不足等因素,使操縱者判斷不及或誤判而造成的飛機失控操作;二、開發「高效能的電腦視覺感測系統」,以提供正確而且充份的環境訊息來輔助飛行控制;三、開發的「高階無人機飛行模擬器」,以供操縱者從事比實體無人機更經濟且有效的進行長時間的擬真飛行模擬訓練,並藉著收集大量的資料,開發出各式無人機應用服務情境下之最佳人工(manual)/自主(AI)操作方式。
因此,本計畫將分為「智慧感測」、「智慧控制」與「智慧模擬」等三大子項目,建立一套開放的無人機人工智慧自動操控平台-OpenDrone人工智慧平台,以提供無人機業者及玩家高彈性、低門檻的開發環境,以建構更多基於無人機的創新應用與服務

Smart UAV technologies list:
Based on the AI technologies, major innovations and benefits contribute in this project at least as follows.
In smart sensing, we develop:
- A tiny object detection system for vehicles and humans.
- A parking lot detection system from the UAV camera.
- A building detection and recognition system.
- A real-time stereo distance estimation technology with embedding system.
- A single camera distance estimation technique.
- An object tracking system.
- A precision landing technology, the UAV can land on an A4 size area.
In smart control, we develop:
-An obstacle avoidance system
-A light-weighted and wireless somatosensory vest
-An autonomous flight control system.
-An UAV object delivery system.
In smart simulation, we develop:
-A VR environment control simulator
-A third-person and first-person view simulator
-A simplify 3D model
If you want to know more details, please visit our YouTube channel: https://www.youtube.com/channel/UCWRAGW2BPOx7PkfB0qebNhw/video

Depth Estimation via Spatiotemporal Correspondence:
Stereo matching and flow estimation are two essential tasks for scene understanding, spatially in 3D and temporally in motion. Existing approaches have been focused on the unsupervised setting due to the limited resource to obtain the large-scale ground truth data. To construct a self-learnable objective, co-related tasks are often linked together to form a joint framework. However, the prior work usually utilizes independent networks for each task, thus not allowing to learn shared feature representations across models. In this paper, we propose a single and principled network to jointly learn spatiotemporal correspondence for stereo matching and flow estimation, with a newly designed geometric connection as the unsupervised signal for temporally adjacent stereo pairs. We show that our method performs favorably against several state-of-the-art baselines for both unsupervised depth and flow estimation on the KITTI benchmark dataset.
This technique had been published in IEEE CVPR 2019.

公司介紹:
智慧型視訊監控為近年來甚受矚目的前瞻技術,為了提供國內相關廠商核心技術,國立交通大學電腦視覺研發中心乃於2000年起,整合國內各大學及研究機構此一領域之頂尖教授,共同開發關鍵技術,以期提升台灣在視訊安全監控產業之水準。其中經濟部於2004年5月起補助的學界科專計畫「以視覺為基礎之智慧型環境的建構(VBIE)計畫」(兩期共八年),為本中心所主持過的最大規模計畫。十幾年來成果豐碩,成為全台最大、領先世界的「視訊安全技術庫」與「電腦視覺人才庫」,發展出近200項核心技術及約100項成熟可移轉技術,技轉近百家廠商,並積極進行國際合作與交流,提升台灣智慧監控研發實力,成為國際電腦視覺與安全監控研發重鎮,詳細成果列述於「中心成就」網頁。中心更於2013年10月9日榮獲經濟部「第三屆國家產業創新獎-年度科專楷模獎」之殊榮,是為學界科專計畫唯一獲獎單位,實屬難得,也更顯中心成果之卓越。
技術影片
關鍵字 Smart Drones之AI平台開發 ─ 智慧飛行控制 Smart UAV technologies list Depth Estimation via Spatiotemporal Correspondence
曾經閱讀此篇文章的人也閱讀過下列文章
提供國際AI研究中心與應用產業最新資訊
本網站使用您的Cookie於優化網站及您的購物經驗。繼續瀏覽網站即表示您同意本公司隱私權政策,您可至隱私權政策了解詳細資訊。