簡要描述:智能視頻信息識別監(jiān)控系統(tǒng)整體建設(shè)方案以智能推理平臺為主,從數(shù)據(jù)采集終端獲取數(shù)據(jù),通過網(wǎng)線網(wǎng)絡(luò)傳輸?shù)綌?shù)據(jù)采集控制中心再通過網(wǎng)絡(luò)網(wǎng)線將數(shù)據(jù)推送至智能推理平臺中,搭配人工智能的軟硬件處理,最后以獲取到數(shù)據(jù)的分析結(jié)果進(jìn)行警報響應(yīng),從而形成一體化的智能推理平臺解決方案。
智能視頻信息識別監(jiān)控系統(tǒng)
在復(fù)雜施工環(huán)境和條件多變的情況下,施工作業(yè)過程中的操作人員難免存在作業(yè)違章行為并伴隨著較大的作業(yè)風(fēng)險。不同的操作人員業(yè)務(wù)水平高低不同,在施工作業(yè)過程中,無法意識到自身存在作業(yè)違章行為并存在一定的作業(yè)風(fēng)險。針對以上問題,開展作業(yè)風(fēng)險告警技術(shù)研究,建立基于人工智能的行為識別告警技術(shù)。作業(yè)風(fēng)險識別告警模型通過基于作業(yè)指導(dǎo)文件內(nèi)容,同時結(jié)合歷史風(fēng)險作業(yè)圖像特征實(shí)現(xiàn)作業(yè)風(fēng)險識別告警目的。
智能視頻信息識別監(jiān)控系統(tǒng)整體建設(shè)方案以智能推理平臺為主,從數(shù)據(jù)采集終端獲取數(shù)據(jù),通過網(wǎng)線網(wǎng)絡(luò)傳輸?shù)綌?shù)據(jù)采集控制中心再通過網(wǎng)絡(luò)網(wǎng)線將數(shù)據(jù)推送至智能推理平臺中,搭配人工智能的軟硬件處理,最后以獲取到數(shù)據(jù)的分析結(jié)果進(jìn)行警報響應(yīng),從而形成一體化的智能推理平臺解決方案。
系統(tǒng)可以兼容已有的前端監(jiān)控設(shè)備和系統(tǒng),對監(jiān)控畫面進(jìn)行不間斷分析和判斷,實(shí)現(xiàn)全天候自動化視頻監(jiān)控。邊緣端只負(fù)責(zé)采集數(shù)據(jù),將采集到的原始數(shù)據(jù)統(tǒng)一上傳到數(shù)據(jù)采集控制中心進(jìn)行緩存和設(shè)備控制。其中視頻數(shù)據(jù)會傳遞給智能推理平臺,進(jìn)行處理,并產(chǎn)生報警信息,之后將報警信息推送到推理平臺監(jiān)控中心。推理平臺監(jiān)控中心根據(jù)接收到的數(shù)據(jù)進(jìn)行可視化的展現(xiàn)以及實(shí)時觸發(fā)報警事件。
方案采用B/S架構(gòu),系統(tǒng)整體計(jì)算服務(wù)部署在智能推理平臺服務(wù)器中,使用瀏覽器客戶端進(jìn)行訪問和控制,用戶無需安裝客戶端,具有維護(hù)簡單,使用方便,分布性強(qiáng)等優(yōu)點(diǎn)。
“人工智能"(Artificial Intelligence,AI)這一概念最早由被譽(yù)為人工智能之父的美國學(xué)者John Mc Carthy于1956年在達(dá)特茅斯大學(xué)召開的會議上提出,是研究開發(fā)用于模擬、延伸和擴(kuò)展人類智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門技術(shù)科學(xué)。人工智能是一門綜合了計(jì)算機(jī)科學(xué)、控制論、信息論、神經(jīng)生理學(xué)、心理學(xué)、語言學(xué)、哲學(xué)等多種學(xué)科互相滲透而發(fā)展起來的一門交叉學(xué)科。關(guān)于人工智能,目前研究界尚無統(tǒng)一的定義,美國斯坦福大學(xué)人工智能研究中心尼爾遜教授下過這樣一個定義:“人工智能是關(guān)于知識的學(xué)科,是怎樣表示知識以及怎樣獲得知識并使用知識的科學(xué)。"而麻省理工學(xué)院的溫斯頓教授認(rèn)為:“人工智能就是研究如何使計(jì)算機(jī)去做過去只有人才能做的智能工作。"而單從人工智能所實(shí)現(xiàn)的功能來定義,主要是探討如何運(yùn)用計(jì)算機(jī)模仿人腦所從事的推理、證明、識別、理解、設(shè)計(jì)、學(xué)習(xí)、思考、規(guī)劃以及問題求解等思維活動,并以此解決如咨詢、診斷、預(yù)測、規(guī)劃等需要人類專家才能處理的復(fù)雜問題,即研究人類智能活動的規(guī)律。經(jīng)過多年發(fā)展,人工智能呈現(xiàn)出深度學(xué)習(xí)、跨界融合、人機(jī)協(xié)同、群智開放、自主操控等新特征。人工智能正在加速與各行業(yè)的深度融合,催生新技術(shù)、新產(chǎn)品、新產(chǎn)業(yè)、新業(yè)態(tài)、新模式,將深刻改變?nèi)祟惿鐣睢⒏淖兪澜纭?/span>
深度學(xué)習(xí)是人工智能的一個方面,它涉及模仿人類用來獲取某些類型知識的學(xué)習(xí)方法,簡單的深度學(xué)習(xí)可以被認(rèn)為是一種自動化分析的方法。傳統(tǒng)的機(jī)器學(xué)習(xí)算法是線性的,但深度學(xué)習(xí)算法堆疊在一個越來越復(fù)雜和抽象的層次結(jié)構(gòu)中。
一個理解深度學(xué)習(xí)的例子是,想象一個小孩學(xué)習(xí)一個詞是狗。小孩通過指向一個物體并說出狗這個詞來了解什么是狗/不是狗,父母會說“是的,那是一只狗"或者“不,那不是狗"。小孩進(jìn)而繼續(xù)指向新的物體并繼續(xù)詢問、了解的時候,他會越來越意識到狗擁有的所有特征。小孩在不了解客觀事物的情況下做的這個事情,也就是通過構(gòu)建一個層次結(jié)構(gòu)來闡明復(fù)雜的抽象(狗的概念),其中每個抽象層次都是從層次結(jié)構(gòu)的前一層獲得的知識創(chuàng)建的。
使用深度學(xué)習(xí)的計(jì)算機(jī)程序經(jīng)歷了相同的過程。層次結(jié)構(gòu)中的每個算法對其輸入應(yīng)用非線性變換,并使用其學(xué)習(xí)的內(nèi)容創(chuàng)建統(tǒng)計(jì)模型作為輸出。迭代繼續(xù)直到輸出達(dá)到可接受的準(zhǔn)確度。數(shù)據(jù)必須通過的處理層數(shù)也就是來自標(biāo)簽的深層啟發(fā)。
計(jì)算機(jī)視覺是使計(jì)算機(jī)“看到"的科學(xué)。它采用一個或多個攝像機(jī),模數(shù)轉(zhuǎn)換(ADC)和數(shù)字信號處理(DSP),生成的數(shù)據(jù)將發(fā)送到計(jì)算機(jī)或機(jī)器人控制器。計(jì)算機(jī)視覺的復(fù)雜性與語音識別相似。由于人眼只對390至770納米的電磁波長敏感。攝像機(jī)可以對比這更寬的波長范圍敏感。一些計(jì)算機(jī)視覺系統(tǒng)就可以在紅外(IR),紫外(UV)或X射線波長下起作用。
機(jī)器視覺需要更具有高級處理器的計(jì)算機(jī),這種深度感知需要高分辨率相機(jī),大量隨機(jī)存取器(RAM)和人工智能(AI)編程。它用于從簽名識別到醫(yī)學(xué)圖像分析的各種應(yīng)用中。專注于基于機(jī)器的圖像處理的計(jì)算機(jī)視覺通常與機(jī)器視覺相混淆。
基礎(chǔ)設(shè)施提供者為人工智能系統(tǒng)提供計(jì)算能力支持,實(shí)現(xiàn)與外部世界的溝通,并通過基礎(chǔ)平臺實(shí)現(xiàn)支撐。計(jì)算能力由智能芯片(CPU、GPU、ASIC、FPGA等硬件加速芯片以及其它智能芯片)等硬件系統(tǒng)開發(fā)商提供;與外部世界的溝通通過新型傳感器制造商提供;基礎(chǔ)平臺包括分布式計(jì)算框架提供商及網(wǎng)絡(luò)提供商提供平臺保障和支持,即包括云存儲和計(jì)算、互聯(lián)互通網(wǎng)絡(luò)等。
解決“是什么? "的問題,即給定一張輸入圖像,圖像分類任務(wù)旨在判斷該圖像所屬類別。常見的分類算法有:ResNet、LetNet、AlexNet、GooleNet等。
解決“是什么?在哪里? "的問題,即給定一張輸入圖像,目標(biāo)檢測的任務(wù)旨在定位出目標(biāo)的位置并且告知目標(biāo)物是什么。常見的檢測算法有:SSD、YOLO、Fast RCNN、Faster RCNN等。
目標(biāo)分割分為實(shí)例的分割和場景分割,解決“每一個像素屬于哪個目標(biāo)物或場景? "的問題。常見的分割算法有:DeepLab、Mask R-CNN、U-Net、FCN等。
為保證視頻智能分析的檢測精度,用戶現(xiàn)場攝像頭要求:
1、支持RTSP、RTMP視頻流格式的攝像頭,分辨率不低于200萬像素(1920x1080或1600x1200);
2、攝像頭安裝位置:一般攝像機(jī)距需要采集的區(qū)域?yàn)?至30米左右,高度為1至8米;室內(nèi)場景監(jiān)控距離一般小于10米,架設(shè)高度1至3米,室外場景監(jiān)控距離一般小于30米,架設(shè)高度小于8米。
安全帽檢測為防范特定區(qū)域內(nèi)人員未佩戴安全帽,本算法方案首先使用YOLO-V3目標(biāo)檢測算法進(jìn)行人頭檢測,定位圖片中的人頭位置,得到包含人頭的檢測框后,在此檢測框的基礎(chǔ)上再使用ResNet-50安全帽的分類算法對檢測框內(nèi)容進(jìn)行分類處理,根據(jù)分類輸出的安全帽置信度與預(yù)設(shè)的閾值比較,若低于閾值,則輸出告警信息。
下圖為對特定區(qū)域的人員安全帽佩戴情況進(jìn)行檢測效果,對于未佩戴安全帽的人員進(jìn)行黃框標(biāo)注,正常佩戴安全帽的人員試用綠框標(biāo)注。
安全帽實(shí)際效果
為規(guī)范特定區(qū)域的人員穿戴規(guī)范,對未合規(guī)穿戴工作服的人員進(jìn)行預(yù)警,本算法方案首先采用YOLO-V3目標(biāo)檢測算法進(jìn)行人體檢測,定位圖片中的人體,得到包含人體的檢測框后,在此檢測框的基礎(chǔ)上再使用質(zhì)量模型進(jìn)行過濾,去除圖像質(zhì)量不好的圖像。再對圖像質(zhì)量較好的行人檢測框進(jìn)行ResNet-50工作服的分類處理,根據(jù)分類輸出的工作服置信度與預(yù)設(shè)的閾值比較,若低于閾值,則輸出告警信息。
下圖為對特定區(qū)域的人員工作服穿著情況進(jìn)行檢測的效果,對于未穿著工作服的人員使用黃框標(biāo)注,正常穿著工作服的人員使用綠框標(biāo)注。
工服穿戴實(shí)際效果
為規(guī)范特定區(qū)域的人員穿戴規(guī)范,對未合規(guī)穿戴反光衣的人員進(jìn)行預(yù)警,本算法方案首先采用YOLO-V3目標(biāo)檢測算法進(jìn)行人體檢測,定位圖片中的人體,得到包含人體的檢測框后,在此檢測框的基礎(chǔ)上再使用ResNet-50反光衣的分類算法對檢測框內(nèi)容進(jìn)行分類處理,根據(jù)分類輸出的反光衣置信度與預(yù)設(shè)的閾值比較,若低于閾值,則輸出告警信息。
下圖為對特定區(qū)域的人員反光衣穿著情況進(jìn)行檢測的效果,對于未穿著反光衣的人員使用紅框標(biāo)注,正常穿著反光衣的人員使用綠框標(biāo)注。
反光衣佩戴實(shí)際效果演示
目前特定區(qū)域內(nèi)闖入仍然采用人工查看監(jiān)控視頻的方式,對于防范具有滯后性,不能準(zhǔn)確實(shí)時的進(jìn)行監(jiān)測告警。為防止事態(tài)進(jìn)一步惡化,本算法方案先采用YOLO-V3目標(biāo)檢測算法進(jìn)行人體檢測,定位圖片中的人體,得到包含人體的檢測框后,在此檢測框的基礎(chǔ)上使用質(zhì)量模型進(jìn)行過濾,去除圖像質(zhì)量不好的人體區(qū)域圖像。然后基于配置好的區(qū)域進(jìn)行判斷,判斷區(qū)域內(nèi)是否有人員在內(nèi),當(dāng)有人員在區(qū)域內(nèi)則進(jìn)行告警。
下圖為對特殊區(qū)域內(nèi)行人闖入的檢測效果,對出現(xiàn)在違進(jìn)區(qū)域(綠色為禁止進(jìn)入?yún)^(qū)域)的人員進(jìn)行異常報警。
人員闖入實(shí)際效果
皮膚裸露檢測為防范區(qū)域內(nèi)人員未穿戴防護(hù)用品,造成皮膚裸露有事故隱患,本算法方案首先使用YOLO-V3目標(biāo)檢測算法進(jìn)行人體檢測,定位圖片中的人體,得到包含人體的檢測框后,在此檢測框的基礎(chǔ)上使用質(zhì)量模型進(jìn)行過濾,去除圖像質(zhì)量不好的人體區(qū)域圖像。過濾后使用DeepLab v3皮膚裸露的分割算法對剩余檢測框內(nèi)的圖像進(jìn)行分割處理(注意:分割區(qū)域?yàn)楦觳?、手、腿、腳部),然后計(jì)算分割出的皮膚區(qū)域占人體檢測框的比值。根據(jù)計(jì)算出的皮膚區(qū)域占比與預(yù)設(shè)的閾值比較,若高于閾值,則輸出告警信息。
下圖為對區(qū)域內(nèi)的人員進(jìn)行皮膚裸露檢測的效果,正常人員以綠框進(jìn)行標(biāo)識,皮膚裸露的人員以紅框進(jìn)行標(biāo)識。
皮膚裸露實(shí)際效果
本算法功能首先采用YOLO-V3目標(biāo)檢測算法進(jìn)行煙霧、火焰檢測,定位圖片中的煙火,得到包含煙火的檢測框后,基于該檢測框位置摳取出后4幀的對應(yīng)圖像,將這5幀中該檢測框區(qū)域圖像的通道進(jìn)行合并。最后使用ResNet-50算法對合并后的圖像進(jìn)煙火分類處理,根據(jù)分類輸出的煙火置信度與預(yù)設(shè)的閾值比較,若高于閾值,則輸出告警信息。
煙火算法效果圖
為規(guī)范區(qū)域的人員行為,防止人員在禁煙區(qū)域內(nèi)吸煙,有火災(zāi)的安全隱患,本算法方案首先采用YOLO-V3目標(biāo)檢測算法進(jìn)行人頭檢測,定位圖片中的人頭,得到包含人頭的檢測框后,在此檢測框的基礎(chǔ)上再使用ResNet-50抽煙的分類算法對檢測框內(nèi)容進(jìn)行分類處理,根據(jù)分類輸出的抽煙置信度與預(yù)設(shè)的閾值比較,若高于閾值,則輸出告警信息。
下圖為抽煙行為檢測的效果。
抽煙檢測算法效果
為規(guī)范區(qū)域的人員行為,防止意外事故發(fā)生,進(jìn)行人員打電話行為監(jiān)測,本算法方案首先采用YOLO-V3目標(biāo)檢測算法進(jìn)行人頭檢測,定位圖片中的人頭,得到包含人頭的檢測框后,在此檢測框的基礎(chǔ)上再使用ResNet-50打電話的分類算法對檢測框內(nèi)容進(jìn)行分類處理,根據(jù)分類輸出的抽煙置信度與預(yù)設(shè)的閾值比較,若高于閾值,則輸出告警信息。
下圖為打電話行為檢測檢測效果。
打電話檢測算法效果
為及時預(yù)警區(qū)域的人員安全,防止人員在發(fā)生倒地時無人發(fā)現(xiàn),可以采用智能識別方式,本算法方案首先采用YOLO-V3目標(biāo)檢測算法進(jìn)行摔倒人體的檢測,定位圖片中的人體,得到包含人體的檢測框后,在此檢測框的基礎(chǔ)上再使用HRNet進(jìn)行人體關(guān)鍵點(diǎn)檢測,獲取左右肩中點(diǎn)和左右腳踝中點(diǎn)的連線(人體中心線),計(jì)算人體中心線與垂直方向的夾角并進(jìn)行判斷,若大于閾值角度就判定為摔倒,否則繼續(xù)進(jìn)行判斷?;谇耙徊降娜梭w關(guān)鍵點(diǎn)繪制骨架圖,使用ResNet-50對骨架圖進(jìn)行分類處理,根據(jù)分類輸出的摔倒置信度與預(yù)設(shè)的閾值比較,若高于閾值,則輸出告警信息。
下圖為人員倒地行為檢測的效果圖。
江蘇省常州市武進(jìn)國家高新區(qū)西湖西路160號6幢A1江蘇久創(chuàng)電氣科技有限公司
400 6929 699
13861009301@163.com
掃一掃加微信
版權(quán)所有 © 2024 江蘇久創(chuàng)電氣科技有限公司 備案號:蘇ICP備13059066號-2 技術(shù)支持:儀表網(wǎng) 管理登陸 sitemap.xml
微信掃一掃
微信掃一掃