수상 인명 구조 방법

KR101407158B1 - 수상 인명 구조 시스템 및 그의 구조 방법 - Google Patents

수상 인명 구조 시스템 및 그의 구조 방법 Download PDF

Info

Publication numberKR101407158B1 KR101407158B1 KR1020120127438A KR20120127438A KR101407158B1 KR 101407158 B1 KR101407158 B1 KR 101407158B1 KR 1020120127438 A KR1020120127438 A KR 1020120127438A KR 20120127438 A KR20120127438 A KR 20120127438A KR 101407158 B1 KR101407158 B1 KR 101407158B1AuthorityKRSouth KoreaPrior art keywordsrobotstructuralunitcontrol unitinformationPrior art date2012-11-12Application numberKR1020120127438AOther languages English (en) Other versions KR20140060746A (koInventor권순이장우김현우하재욱Original Assignee재단법인대구경북과학기술원Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)2012-11-12Filing date2012-11-12Publication date2014-06-13 2012-11-12 Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원 2012-11-12 Priority to KR1020120127438A priority Critical patent/KR101407158B1/ko 2014-05-21 Publication of KR20140060746A publication Critical patent/KR20140060746A/ko 2014-06-13 Application granted granted Critical 2014-06-13 Publication of KR101407158B1 publication Critical patent/KR101407158B1/ko

Links

  • Espacenet
  • Global Dossier
  • Discuss
  • XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances data:image/svg+xml;base64,PD94bWwgdmVyc2lvbj0nMS4wJyBlbmNvZGluZz0naXNvLTg4NTktMSc/Pgo8c3ZnIHZlcnNpb249JzEuMScgYmFzZVByb2ZpbGU9J2Z1bGwnCiAgICAgICAgICAgICAgeG1sbnM9J2h0dHA6Ly93d3cudzMub3JnLzIwMDAvc3ZnJwogICAgICAgICAgICAgICAgICAgICAgeG1sbnM6cmRraXQ9J2h0dHA6Ly93d3cucmRraXQub3JnL3htbCcKICAgICAgICAgICAgICAgICAgICAgIHhtbG5zOnhsaW5rPSdodHRwOi8vd3d3LnczLm9yZy8xOTk5L3hsaW5rJwogICAgICAgICAgICAgICAgICB4bWw6c3BhY2U9J3ByZXNlcnZlJwp3aWR0aD0nMzAwcHgnIGhlaWdodD0nMzAwcHgnIHZpZXdCb3g9JzAgMCAzMDAgMzAwJz4KPCEtLSBFTkQgT0YgSEVBREVSIC0tPgo8cmVjdCBzdHlsZT0nb3BhY2l0eToxLjA7ZmlsbDojRkZGRkZGO3N0cm9rZTpub25lJyB3aWR0aD0nMzAwLjAnIGhlaWdodD0nMzAwLjAnIHg9JzAuMCcgeT0nMC4wJz4gPC9yZWN0Pgo8dGV4dCB4PScxMDAuNScgeT0nMTcwLjAnIGNsYXNzPSdhdG9tLTAnIHN0eWxlPSdmb250LXNpemU6NDBweDtmb250LXN0eWxlOm5vcm1hbDtmb250LXdlaWdodDpub3JtYWw7ZmlsbC1vcGFjaXR5OjE7c3Ryb2tlOm5vbmU7Zm9udC1mYW1pbHk6c2Fucy1zZXJpZjt0ZXh0LWFuY2hvcjpzdGFydDtmaWxsOiNFODQyMzUnID5IPC90ZXh0Pgo8dGV4dCB4PScxMjYuMScgeT0nMTg2LjAnIGNsYXNzPSdhdG9tLTAnIHN0eWxlPSdmb250LXNpemU6MjZweDtmb250LXN0eWxlOm5vcm1hbDtmb250LXdlaWdodDpub3JtYWw7ZmlsbC1vcGFjaXR5OjE7c3Ryb2tlOm5vbmU7Zm9udC1mYW1pbHk6c2Fucy1zZXJpZjt0ZXh0LWFuY2hvcjpzdGFydDtmaWxsOiNFODQyMzUnID4yPC90ZXh0Pgo8dGV4dCB4PScxMzguMCcgeT0nMTcwLjAnIGNsYXNzPSdhdG9tLTAnIHN0eWxlPSdmb250LXNpemU6NDBweDtmb250LXN0eWxlOm5vcm1hbDtmb250LXdlaWdodDpub3JtYWw7ZmlsbC1vcGFjaXR5OjE7c3Ryb2tlOm5vbmU7Zm9udC1mYW1pbHk6c2Fucy1zZXJpZjt0ZXh0LWFuY2hvcjpzdGFydDtmaWxsOiNFODQyMzUnID5PPC90ZXh0Pgo8L3N2Zz4K data:image/svg+xml;base64,PD94bWwgdmVyc2lvbj0nMS4wJyBlbmNvZGluZz0naXNvLTg4NTktMSc/Pgo8c3ZnIHZlcnNpb249JzEuMScgYmFzZVByb2ZpbGU9J2Z1bGwnCiAgICAgICAgICAgICAgeG1sbnM9J2h0dHA6Ly93d3cudzMub3JnLzIwMDAvc3ZnJwogICAgICAgICAgICAgICAgICAgICAgeG1sbnM6cmRraXQ9J2h0dHA6Ly93d3cucmRraXQub3JnL3htbCcKICAgICAgICAgICAgICAgICAgICAgIHhtbG5zOnhsaW5rPSdodHRwOi8vd3d3LnczLm9yZy8xOTk5L3hsaW5rJwogICAgICAgICAgICAgICAgICB4bWw6c3BhY2U9J3ByZXNlcnZlJwp3aWR0aD0nODVweCcgaGVpZ2h0PSc4NXB4JyB2aWV3Qm94PScwIDAgODUgODUnPgo8IS0tIEVORCBPRiBIRUFERVIgLS0+CjxyZWN0IHN0eWxlPSdvcGFjaXR5OjEuMDtmaWxsOiNGRkZGRkY7c3Ryb2tlOm5vbmUnIHdpZHRoPSc4NS4wJyBoZWlnaHQ9Jzg1LjAnIHg9JzAuMCcgeT0nMC4wJz4gPC9yZWN0Pgo8dGV4dCB4PScxMy4zJyB5PSc1My42JyBjbGFzcz0nYXRvbS0wJyBzdHlsZT0nZm9udC1zaXplOjIzcHg7Zm9udC1zdHlsZTpub3JtYWw7Zm9udC13ZWlnaHQ6bm9ybWFsO2ZpbGwtb3BhY2l0eToxO3N0cm9rZTpub25lO2ZvbnQtZmFtaWx5OnNhbnMtc2VyaWY7dGV4dC1hbmNob3I6c3RhcnQ7ZmlsbDojRTg0MjM1JyA+SDwvdGV4dD4KPHRleHQgeD0nMjguMicgeT0nNjIuOScgY2xhc3M9J2F0b20tMCcgc3R5bGU9J2ZvbnQtc2l6ZToxNXB4O2ZvbnQtc3R5bGU6bm9ybWFsO2ZvbnQtd2VpZ2h0Om5vcm1hbDtmaWxsLW9wYWNpdHk6MTtzdHJva2U6bm9uZTtmb250LWZhbWlseTpzYW5zLXNlcmlmO3RleHQtYW5jaG9yOnN0YXJ0O2ZpbGw6I0U4NDIzNScgPjI8L3RleHQ+Cjx0ZXh0IHg9JzM1LjAnIHk9JzUzLjYnIGNsYXNzPSdhdG9tLTAnIHN0eWxlPSdmb250LXNpemU6MjNweDtmb250LXN0eWxlOm5vcm1hbDtmb250LXdlaWdodDpub3JtYWw7ZmlsbC1vcGFjaXR5OjE7c3Ryb2tlOm5vbmU7Zm9udC1mYW1pbHk6c2Fucy1zZXJpZjt0ZXh0LWFuY2hvcjpzdGFydDtmaWxsOiNFODQyMzUnID5PPC90ZXh0Pgo8L3N2Zz4K O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims abstract description 22
  • 238000004873 anchoring Methods 0.000 claims abstract description 3
  • 230000001276 controlling effect Effects 0.000 claims abstract description 3
  • 241000252254 Catostomidae Species 0.000 claims description 8
  • 206010013647 Drowning Diseases 0.000 claims description 6
  • 238000003287 bathing Methods 0.000 claims description 6
  • 238000005259 measurement Methods 0.000 claims description 4
  • 206010057190 Respiratory tract infection Diseases 0.000 claims 3
  • 238000010586 diagram Methods 0.000 description 3
  • 238000000034 method Methods 0.000 description 3
  • 230000004048 modification Effects 0.000 description 2
  • 238000006011 modification reaction Methods 0.000 description 2
  • 208000000059 Dyspnea Diseases 0.000 description 1
  • 206010013975 Dyspnoeas Diseases 0.000 description 1
  • 208000007101 Muscle Cramp Diseases 0.000 description 1
  • 206010028334 Muscle spasms Diseases 0.000 description 1
  • 230000000875 corresponding Effects 0.000 description 1
  • 238000001514 detection method Methods 0.000 description 1
  • 230000000694 effects Effects 0.000 description 1

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63CLAUNCHING, HAULING-OUT, OR DRY-DOCKING OF VESSELS; LIFE-SAVING IN WATER; EQUIPMENT FOR DWELLING OR WORKING UNDER WATER; MEANS FOR SALVAGING OR SEARCHING FOR UNDERWATER OBJECTS
    • B63C9/00Life-saving in water
    • B63C9/02Lifeboats, life-rafts or the like, specially adapted for life-saving
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63CLAUNCHING, HAULING-OUT, OR DRY-DOCKING OF VESSELS; LIFE-SAVING IN WATER; EQUIPMENT FOR DWELLING OR WORKING UNDER WATER; MEANS FOR SALVAGING OR SEARCHING FOR UNDERWATER OBJECTS
    • B63C9/00Life-saving in water
    • B63C9/21Boats, rafts, buoys or the like, characterised by signalling means, e.g. lights, reflectors
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B35/00Vessels or similar floating structures specially adapted for specific purposes and not otherwise provided for
    • B63B2035/006Unmanned surface vessels, e.g. remotely controlled
    • B63B2035/007Unmanned surface vessels, e.g. remotely controlled autonomously operating
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63CLAUNCHING, HAULING-OUT, OR DRY-DOCKING OF VESSELS; LIFE-SAVING IN WATER; EQUIPMENT FOR DWELLING OR WORKING UNDER WATER; MEANS FOR SALVAGING OR SEARCHING FOR UNDERWATER OBJECTS
    • B63C9/00Life-saving in water
    • B63C2009/0017Life-saving in water characterised by making use of satellite radio beacon positioning systems, e.g. the Global Positioning System [GPS]

Abstract

본 발명의 실시예에 따른 수상 인명 구조 시스템은, 스테레오 타입의 촬영부를 통해 수상 환경을 관제하는 관제 유닛; 및 관제 유닛으로부터 제공되는 정보에 기초하여 익수자 발생 시 익수자를 구조하는 구조 유닛;을 포함하며, 구조 유닛은, 익수자의 구조가 가능한 구조 로봇; 및 구조 로봇의 정박이 가능한 공간을 제공하며, 관제 유닛으로부터 수신된 정보를 구조 로봇에게 전달하는 베이스 스테이션;을 포함할 수 있다. 본 발명의 실시예에 따르면, 관제 유닛으로부터 획득된 정보를 토대로 베이스 스테이션에 대기 가능한 구조 로봇을 실시간으로 제어할 수 있어, 익수자 발생 시와 같은 위급한 상황에 바로 구조 로봇을 출동시킬 수 있어 위급한 상황에 대한 대처를 신속하게 수행할 있다.

Description

수상 인명 구조 시스템 및 그의 구조 방법{lifesaving system and method to save thereof}

수상 인명 구조 시스템 및 그의 구조 방법이 개시된다. 보다 상세하게는, 관제 유닛으로부터 획득된 정보를 토대로 베이스 스테이션에 대기 가능한 구조 로봇을 실시간으로 제어할 수 있어, 익수자 발생 시와 같은 위급한 상황에 바로 구조 로봇을 출동시킬 수 있어 위급한 상황에 대한 대처를 신속하게 수행할 있는 수상 인명 구조 시스템 및 그의 구조 방법이 개시된다.

소득 증대 및 주5일 근무제의 시행 등으로 인해 생활 환경이 전반적으로 좋아지면서 레저 활동에 대한 관심도 높아지고 있으며, 실제로 기호에 맞춰 다양한 레저 활동이 이루어지고 있다.

예를 들면, 수상 환경에서의 레저가 증가하고 있는데, 특히 해수욕장과 같은 곳에서 피서객 수가 지속적으로 늘어나고 있다. 그러나, 이에 맞춰 수상 안전사고도 증가하고 있다.

하지만, 수상 인명 구조 인프라는 지역 또는 기관별로 소규모 인력과 장비를 독자 운영함으로써 효율적인 대처가 미흡한 실정이다. 따라서, 해변에서 이안류(rip current), 해일 등과 같은 재해가 발생될 때 효율적인 대처를 하지 못해 인명 구조를 하지 못하는 안타까운 상황도 빈번하게 발생되고 있다.

부연하면, 익사 사고가 발생되는 경우 익수자가 3분 이내에 호흡 곤란 및 경련 등을 겪게 되는데, 기존의 수동 장비를 이용한 안전요원의 투입만으로는 신속한 대처가 어렵다.

이에, 수상 환경에서 익사 사고와 같은 안전사고 발생 시 익수자의 의식이 존재하는 시간(예를 들면 2분) 내에 익수자에게 도달하여 익수자를 구조할 수 있는 무인의 수상 인명 구조 시스템의 개발이 요구되는 실정이다.

본 발명의 실시예에 따른 목적은, 관제 유닛으로부터 획득된 정보를 토대로 베이스 스테이션에 대기 가능한 구조 로봇을 실시간으로 제어할 수 있어, 익수자 발생 시와 같은 위급한 상황에 바로 구조 로봇을 출동시킬 수 있어 위급한 상황에 대한 대처를 신속하게 수행할 있는 수상 인명 구조 시스템 및 그의 구조 방법을 제공하는 것이다.

또한, 본 발명의 실시예에 따른 다른 목적은, 관제 유닛의 획득 정보에 의해 구조 로봇의 위치와 목표 지점의 위치까지의 이동 경로가 실시간으로 보정됨으로써 위급한 상황 발생 시 목표 지점으로 구조 로봇이 정확하게 이동할 수 있는 수상 인명 구조 시스템 및 그의 구조 방법을 제공하는 것이다.

본 발명의 실시예에 따른 수상 인명 구조 시스템은, 스테레오 타입의 촬영부를 통해 수상 환경을 관제하는 관제 유닛; 및 상기 관제 유닛으로부터 제공되는 정보에 기초하여 익수자 발생 시 상기 익수자를 구조하는 구조 유닛;을 포함하며, 상기 구조 유닛은, 상기 익수자의 구조가 가능한 구조 로봇; 및 상기 구조 로봇의 정박이 가능한 공간을 제공하며, 상기 관제 유닛으로부터 수신된 정보를 상기 구조 로봇에게 전달하는 베이스 스테이션;을 포함하며, 이러한 구성에 의해서, 관제 유닛으로부터 획득된 정보를 토대로 베이스 스테이션에 대기 가능한 구조 로봇을 실시간으로 제어할 수 있어, 익수자 발생 시와 같은 위급한 상황에 바로 구조 로봇을 출동시킬 수 있어 위급한 상황에 대한 대처를 신속하게 수행할 있다.

일측에 의하면, 상기 관제 유닛은, 상기 수상 환경에서 발생 가능한 상기 익수자 및 상기 구조 로봇의 위치를 인식 및 추적하는 객체 및 위치 인식/추적부; 및 상기 촬영부 및 상기 객체 및 위치 인식/추적부로부터 획득된 정보에 기초하여 상기 구조 로봇의 위치로부터 상기 익수자가 있는 위치까지 이동 경로를 생성하고, 상기 베이스 스테이션과 송수신 가능한 관제부를 더 포함할 수 있다.

일측에 의하면, 상기 촬영부는 스테레오 타입을 갖는 복수 개의 스테레오 카메라를 포함하며, 상기 복수 개의 스테레오 카메라의 공통 화각을 확장하여 상기 수상 환경을 형성하는 수상 영역에 대한 위치맵을 설정할 수 있다.

일측에 의하면, 상기 복수 개의 스테레오 카메라로부터 획득된 상기 위치맵에 기반하여 상기 수상 환경의 영역을 안전 수역 및 위험 수역으로 구획하고, 상기 관제부는 상기 위험 수역으로 입욕객이 접근할 경우 상기 스테레오 카메라 및 상기 객체 및 위치 인식/추적부를 통해 상기 입욕객의 이동 속도 및 육상과의 거리를 추정하여 추정된 정보를 상기 베이스 스테이션으로 전송할 수 있다.

일측에 의하면, 상기 구조 로봇은, 로봇 몸체; 상기 로봇 몸체에 장착되며, 상기 베이스 스테이션과 신호 송수신하는 로봇 신호 송수신부; 상기 로봇 몸체에 장착되며, 상기 로봇 신호 송수신부에 의해 수신된 정보를 토대로 상기 로봇 몸체를 구동시키는 로봇 제어부; 및 상기 로봇 몸체에 장착되며, 상기 수상 환경에서 상기 로봇 몸체의 위치를 인식하도록 하는 로봇 센서부를 포함할 수 있다.

일측에 의하면, 상기 로봇 센서부는, 영상 센서와, 초분광 센서(hyper-spectral camera), 적외선 영상센서(IR camera), 소나(sonar, 수중 음파 탐지기), 초음파 센서, 위치 추적부(GPS, global positioning system)와, 관성 측정부(IMU, Inertial Measurement Unit)를 포함하는 환경인식 센서 중 적어도 어느 하나를 포함할 수 있다.

일측에 의하면, 익수자 발생 시, 상기 관제 유닛에 의해 획득된 영상 정보 및 위치 정보를 통해 상기 구조 로봇의 현재 위치로부터 상기 익수자까지의 이동 경로가 설정되며, 상기 구조 로봇은 상기 관제 유닛으로부터 상기 베이스 스테이션을 거쳐 받은 정보를 토대로 상기 이동 경로를 따라 자율 항법으로 이동할 수 있다.

일측에 의하면, 상기 관제 유닛에 의해 실시간으로 획득되는 정보를 토대로, 상기 구조 로봇의 이동에 따른 상기 이동 경로는 실시간으로 보정될 수 있다.

한편, 본 발명의 실시예에 따른 수상 인명 구조 시스템의 구조 방법은, 상기 관제 유닛의 관제를 통해 상기 수상 환경에 대한 정보를 획득하는 정보 획득 단계; 획득된 상기 정보를 상기 베이스 스테이션으로 전송하여, 상기 수상 환경 상태를 상기 베이스 스테이션에 전달하는 정보 전달 단계; 및 상기 수상 환경에서 상기 익수자 발생에 대한 정보가 상기 베이스 스테이션에 전달되는 경우, 상기 구조 로봇을 구동하여 상기 익수자에게 보내는 구조 로봇 작동 단계;를 포함할 수 있으며, 이러한 단계적 구성에 의해서, 관제 유닛으로부터 획득된 정보를 토대로 베이스 스테이션에 대기 가능한 구조 로봇을 실시간으로 제어할 수 있어, 익수자 발생 시와 같은 위급한 상황에 바로 구조 로봇을 출동시킬 수 있어 위급한 상황에 대한 대처를 신속하게 수행할 있다.

본 발명의 실시예에 따르면, 관제 유닛으로부터 획득된 정보를 토대로 베이스 스테이션에 대기 가능한 구조 로봇을 실시간으로 제어할 수 있어, 익수자 발생 시와 같은 위급한 상황에 바로 구조 로봇을 출동시킬 수 있어 위급한 상황에 대한 대처를 신속하게 수행할 있다.

또한, 본 발명의 실시예에 따르면, 관제 유닛의 획득 정보에 의해 구조 로봇의 위치와 목표 지점의 위치까지의 이동 경로가 실시간으로 보정됨으로써 위급한 상황 발생 시 목표 지점으로 구조 로봇이 정확하게 이동할 수 있다.

도 1은 본 발명의 일 실시예에 따른 수상 인명 구조 시스템이 적용되는 수상 환경을 개략적으로 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 수상 인명 구조 시스템의 구성을 도시한 블록도이다.
도 3은 도 2에 도시된 관제 유닛의 촬영부에 의해 설정되는 수상 환경의 위치맵을 개략적으로 도시한 도면이다.
도 4는 도 2에 도시된 촬영부의 복수 개의 스테레오 카메라에 의해 설정되는 공통 화각을 개략적으로 도시한 도면이다.
도 5는 도 2에 도시된 촬영부에 의해 촬영되는 수상 환경의 안전 수역 및 위험 수역을 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 수상 인명 구조 시스템에 의한 인명 구조 방법을 개략적으로 도시한 순서도이다.

이하, 첨부 도면을 참조하여 본 발명의 실시예에 따른 구성 및 적용에 관하여 상세히 설명한다. 이하의 설명은 특허 청구 가능한 본 발명의 여러 태양(aspects) 중 하나이며, 하기의 기술(description)은 본 발명에 대한 상세한 기술(detailed description)의 일부를 이룬다.

다만, 본 발명을 설명함에 있어서, 공지된 기능 혹은 구성에 관한 구체적인 설명은 본 발명의 요지를 명료하게 하기 위하여 생략하기로 한다.

도 1은 본 발명의 일 실시예에 따른 수상 인명 구조 시스템이 적용되는 수상 환경을 개략적으로 도시한 도면이고, 도 2는 본 발명의 일 실시예에 따른 수상 인명 구조 시스템의 구성을 도시한 블록도이고, 도 3은 도 2에 도시된 관제 유닛의 촬영부에 의해 설정되는 수상 환경의 위치맵을 개략적으로 도시한 도면이며, 도 4는 도 2에 도시된 촬영부의 복수 개의 스테레오 카메라에 의해 설정되는 공통 화각을 개략적으로 도시한 도면이고, 도 5는 도 2에 도시된 촬영부에 의해 촬영되는 수상 환경의 안전 수역 및 위험 수역을 도시한 도면이다.

이들 도면에 도시된 바와 같이, 본 발명의 일 실시예에 따른 수상 인명 구조 시스템(100)은, 수상 환경(101S)을 감시하는 관제 유닛(110)과, 관제 유닛(110)으로부터 제공되는 정보에 기초하여 수상 환경(101S)에서 익수자(101) 발생 시 익수자(101)를 구조하는 구조 로봇(150)을 구비하는 구조 유닛(130)을 포함할 수 있다.

이러한 구성에 의해서, 익수자(101) 발생 시 최소의 시간에 익수자(101)를 구조할 수 있어 익수자(101)의 생명의 유지 가능성을 향상시킬 수 있다.

각각의 구성에 대해 설명하면, 먼저 본 실시예의 관제 유닛(110)은, 도 1 및 도 2에 도시된 것처럼, 수상 환경(101S)을 촬영하는 촬영부(120)와, 수상 환경(101S)에서 발생 가능한 익수자(101) 및 구조 로봇(150)을 인식 및 추적하는 객체 및 위치 인식/추적부(127) 그리고 이들로부터 제공된 정보를 통해 구조 로봇(150)으로부터 익수자(101)로의 이동 경로 등을 생성하는 관제부(125)를 포함할 수 있다.

본 실시예의 촬영부(120)는, 도 3 및 도 4에 도시된 바와 같이, 수상 환경(101S)에서 해변을 따라 배치되는 복수 개의 스테레오 카메라(121)를 구비함으로써 스테레오(stereo) 타입으로 마련될 수 있다.

도 3을 참조하면, 복수 개의 스테레오 카메라(121)가, 수상 환경(101S)을 같이 촬영함으로써 각 스테레오 카메라(121)의 양안 시차를 통한 스테레오 카메라(121)와 객체, 예를 들면 익수자(101) 또는 구조 로봇(150) 간의 거리 계산이 가능하고 이를 통해 스테레오 카메라(121)를 원점으로 하는 2차원 좌표를 생성할 수 있다.

또한, 넓은 범위를 갖는 해수욕장과 같은 수상 환경(101S)에 복수 개의 스테레오 카메라(121)를 배치함으로써 스테레오 카메라(121) 각각의 공통 화각을 확장하여 수상 환경(101S) 전역에 대한 위치맵(101M)을 생성할 수 있다. 위치맵(101M)은, 도 3에 도시된 것처럼, 수상 환경(101S)을 좌표로 표시함으로써 위치맵(101M)을 이용하여 익수자(101)의 위치 및 구조 로봇(150)의 위치 등을 정확하게 감지할 수 있다.

도 4를 통해, 복수 개의 스테레오 카메라(121)가 해변을 따라 스테레오 타입으로 배치됨으로써 공통 화각을 확장할 수 있음을 알 수 있고, 생성된 위치맵(101M)의 좌표에 의해 익수자(101)의 위치가 (XO, ZO)에 있음을 인식할 수 있고 구조 로봇(150)의 위치가 (XR, ZR)에 있음을 인식할 수 있어 관제부(125)에 의해 구조 로봇(150)의 이동 경로를 설정할 수 있다.

아울러, 복수 개의 스테레오 카메라가 스테레오 타입으로 마련됨으로써 수상 환경(101S)의 수상 영역에 대한 위치맵(101M)을 생성하게 되면, 도 5에 도시된 것처럼, 미리 설정된 안전 수역(102S)과, 위험 수역(103S)을 영상에서 일치하여 볼 수 있다. 이를 통해, 가령 입욕객(102)이 위험 수역(103S)으로 접근하는 경우 복수 개의 스테레오 카메라(121)가 입욕객(102)을 촬영하고 객체 및 위치 인식/추적부(127)가 입욕개(102)의 위치를 실시간으로 추적함으로써 관제부(125)에서 입욕객(102)의 이동 속도 및 육상과의 거리를 추정할 수 있다.

또한 추정된 정보를 베이스 스테이션(140)으로 제공하여 비상 사태 시 구조 로봇(150)이 바로 출동할 수 있도록 출동 태세를 준비시킬 수 있다.

한편, 본 실시예의 구조 로봇(150)은 평상 시 베이스 스테이션(140)에 정박한 상태를 유지하다가 관제부(125)와 신호 송수신하는 베이스 스테이션(140)으로부터 명령 신호가 주어지는 경우 목표 지점, 예를 들면 익수자(101)가 있는 위치로 이동하게 된다.

이러한 구조 로봇(150)은, 도 1 및 도 2에 개략적으로 도시된 것처럼, 익수자(101)가 물 속에서 의지하기 용이하도록 유선 형태를 갖는 로봇 몸체(151)와, 로봇 몸체(151)에 장착되며 베이스 스테이션(140)과 신호 송수신하는 로봇 신호 송수신부(152)와, 로봇 신호 송수신부(152)에 의해 수신된 명령 신호를 토대로 로봇 몸체(151)를 구동시키는 로봇 제어부(153)와, 로봇 몸체(151)에 장착되어 수상 환경(101S)에서 자신의 위치를 감지하도록 하는 로봇 센서부(154)를 포함할 수 있다.

여기서, 로봇 센서부(154)는, 도 2에 도시된 것처럼, 영상 센서, 초분광 센서(hyper-spectral camera), 적외선 영상센서(IR camera), 소나(sonar, 수중 음파 탐지기), 초음파 센서, 위치 추적부(GPS, global positioning system), 관성 측정부(IMU, Inertial Measurement Unit) 등과 같은 다양한 환경인식 센서(155)를 포함할 수 있으며, 이에 따라 관제부(125)에 자신의 위치를 알릴 수 있으며 따라서 익수자(101) 발생 시 로봇 센서부(154)의 감지 기능을 이용하여 구조 로봇(150)은 익수자(101)가 있는 위치로 빠르게 이동할 수 있다.

여기서, 위치 추적부(156)를 통해 위성을 이용하여 구조 로봇(150)의 위치 파악 및 이동이 정확하게 이루어질 수 있음은 물론 가령 신호 단절에 의해 위치 추적부(156)가 작동하지 않더라도 관성 측정부(157)를 이용하여 구조 로봇(150)의 위치 파악 및 이동을 정확하게 수행할 수 있다.

이러한 구성의 구조 로봇(150)은, 전술한 것처럼, 관제 유닛(110)의 촬영부(120)에 의해 획득된 영상 정보 및 객체 및 위치 인식/추적부(127)에 의해 획득된 정보를 토대로 익수자(101) 발생 위치로 이동할 수 있다. 이 때, 관제부(125)에 의해 구조 로봇(150) 및 익수자(101) 발생 위치 간의 이동 경로가 정확하게 생성될 수 있으며, 이 정보가 베이스 스테이션(140)을 거쳐 구조 로봇(150)에 전달되어 구조 로봇(150)은 목표 지점으로 정확하게 이동할 수 있다.

본 실시예의 구조 로봇(150)은 무인 로봇으로 자율 항법으로 작동하여 목표 지점으로 이동할 수 있기 때문에 최소의 시간 내에 목표 지점까지 이동할 수 있으며 따라서 익수자(101)의 구조를 안전하게 수행할 수 있다.

다만, 구조 로봇(150)의 이동에 따라 이동 경로에 오차가 발생될 수 있는데, 전술한 촬영부(120)에 구비되는 복수 개의 스테레오 카메라(121)의 실시간 촬영에 의해 구조 로봇(101)으로부터 익수자(101) 발생 위치까지의 이동 경로는 실시간으로 보정될 수 있고, 보정된 정보가 구조 로봇(150)에 전달되어 구조 로봇(150)은 정확하게 이동할 수 있다.

한편, 도 6을 참조하여 관제 유닛(110)의 정보 획득으로부터 구조 로봇(150)이 작동되기까지의 과정을 개략적으로 설명하기로 한다.

먼저, 촬영부(120)의 복수 개의 스테레오 카메라(121)의 촬영(S100)에 의해 수상 환경(101S)의 영상이 추출(S200)되고 구조 로봇(150)의 위치가 검출(S300)되며, 이를 통해 설정된 위치맵(101M)에서 발생 가능한 익수자(101)의 위치값 및 구조 로봇(150)의 위치값이 추정(S400)될 수 있다.

이후, 구조 로봇(150)의 위치로부터 익수자(101)의 위치까지 이동 경로가 수립(S500)될 수 있으며, 구조 로봇(150)이 이동 경로를 따라 구동(S600)될 수 있다. 이 때 전술한 것처럼 이동 경로가 실시간으로 보정되며, 아울러 구조 로봇(150)이 갖는 자체의 로봇 센서부(154) 등을 이용하여 이동 과정에서의 주변 환경을 인식할 수 있어 구조 로봇(150)이 목표 지점으로 정확하게 이동할 수 있다.

한편, 이하에서는 전술한 내용을 토대로 본 발명의 일 실시예에 따른 수상 인명 구조 시스템의 구조 방법에 대해서 개략적으로 설명하기로 한다.

본 실시예의 수상 인명 구조 시스템(100)의 구조 방법은, 관제 유닛(125)의 촬영부(120)를 통해 수상 환경(101S)에 대한 정보를 획득하는 정보 획득 단계와, 획득된 정보를 베이스 스테이션(140)으로 전송하여 수상 환경(101S) 상태를 베이스 스테이션(140)에 실시간으로 전달하는 정보 전달 단계와, 수상 환경(101S)에서 익수자(101) 발생에 대한 정보가 베이스 스테이션(140)에 전달되는 경우 구조 로봇(150)을 구동하여 익수자(101)에게 보내는 구조 로봇 작동 단계를 포함할 수 있다.

본 실시예의 정보 획득 단계는, 복수 개의 스테레오 카메라(121)를 갖는 촬영부(120)에 의해 수상 환경(101S)이 실시간으로 촬영된 정보를 획득하는 단계이며 아울러 객체 및 위치 인식/추적부(127)에 의해 객체, 예를 들면 익수자(101) 또는 구조 로봇(150)의 위치에 대한 정보를 실시간으로 획득하는 단계이다.

이 단계 시 획득된 정보를 통해, 관제부(125)는 익수자(101) 발생 시 구조 로봇(150)의 위치로부터 익수자(101)까지의 이동 경로를 생성할 수 있으며, 정보 전달 단계 시 관제부(125)로부터 베이스 스테이션(140)으로 해당 정보가 전달될 수 있다.

본 실시예의 구조 로봇 작동 단계는, 베이스 스테이션(140)으로부터 주어지는 명령 신호에 따라 구조 로봇(150)이 작동하는 단계로서, 구조 로봇(150)이 베이스 스테이션(140)으로부터 이동 경로를 따라 목표 지점으로 이동 시에도 베이스 스테이션(140)은 보정된 이동 경로에 대한 정보를 구조 로봇(150)에 전달해줌으로써 익수자(101)가 있는 위치로 구조 로봇(150)이 정확하게 그리고 신속하게 이동할 수 있다. 아울러, 구조 로봇의 근접 환경에 대해 관제부(125)에서 미처 인식하지 못하는 경우를 대비하여 구조 로봇(150) 자체의 로봇 센서(155)부를 통해 근접 환경을 인식할 수 있다.

이와 같이, 본 발명의 일 실시예에 따르면, 관제 유닛(110)으로부터 획득된 정보를 토대로 베이스 스테이션(140)에 대기 가능한 구조 로봇(150)을 실시간으로 제어할 수 있어, 익수자(101) 발생 시와 같은 위급한 상황에 바로 구조 로봇(150)을 출동시킬 수 있어 위급한 상황에 대한 대처를 신속하게 수행할 있는 장점이 있다.

아울러, 관제 유닛(110)의 획득 정보에 의해 구조 로봇(150)의 위치와 목표 지점의 위치까지의 이동 경로가 실시간으로 보정됨으로써 위급한 상황 발생 시 목표 지점으로 구조 로봇(150)이 정확하게 이동할 수 있는 장점도 있다.

한편, 본 발명은 기재된 실시예에 한정되는 것이 아니고, 본 발명의 사상 및 범위를 벗어나지 않고 다양하게 수정 및 변형할 수 있음은 이 기술의 분야에서 통상의 지식을 가진 자에게 자명하다. 따라서 그러한 수정예 또는 변형예들은 본 발명의 특허청구범위에 속한다 하여야 할 것이다.

100 : 수상 인명 구조 시스템
110 : 관제 유닛
120 : 촬영부
121 : 스테레오 카메라
125 : 관제부
127 : 객체 및 위치 인식/추적부
130 : 구조 유닛
140 : 베이스 스테이션
150 : 구조 로봇

Claims (9)

  1. 수상 환경을 관제하는 관제 유닛; 및
    상기 관제 유닛으로부터 제공되는 정보에 기초하여 익수자 발생 시 상기 익수자를 구조하는 구조 유닛;
    을 포함하며,
    상기 구조 유닛은,
    상기 익수자의 구조가 가능한 구조 로봇; 및
    상기 구조 로봇의 정박이 가능한 공간을 제공하며, 상기 관제 유닛으로부터 수신된 정보를 상기 구조 로봇에게 전달하는 베이스 스테이션;
    을 포함하며,
    상기 관제 유닛은,
    스테레오 타입을 갖도록 복수 개의 스테레오 카메라를 갖는 촬영부;
    상기 수상 환경에서 발생 가능한 상기 익수자 및 상기 구조 로봇의 위치를 인식 및 추적하는 객체 및 위치 인식/추적부; 및
    상기 촬영부 및 상기 객체 및 위치 인식/추적부로부터 획득된 정보에 기초하여 상기 구조 로봇의 위치로부터 상기 익수자가 있는 위치까지 이동 경로를 생성하고, 상기 베이스 스테이션과 송수신 가능한 관제부;
    를 포함하며,
    상기 복수 개의 스테레오 카메라의 공통 화각을 확장하여 상기 수상 환경을 형성하는 수상 영역에 대한 위치맵을 설정하며,
    상기 복수 개의 스테레오 카메라로부터 획득된 상기 위치맵에 기반하여 상기 수상 환경의 영역을 안전 수역 및 위험 수역으로 구획하고,
    상기 관제부는 상기 위험 수역으로 입욕객이 접근할 경우 상기 스테레오 카메라 및 상기 객체 및 위치 인식/추적부를 통해 상기 입욕객의 이동 속도 및 육상과의 거리를 추정하여 추정된 정보를 상기 베이스 스테이션으로 전송하는 수상 인명 구조 시스템.

  2. 제1항에 있어서,
    상기 구조 로봇은,
    로봇 몸체;
    상기 로봇 몸체에 장착되며, 상기 베이스 스테이션과 신호 송수신하는 로봇 신호 송수신부;
    상기 로봇 몸체에 장착되며, 상기 로봇 신호 송수신부에 의해 수신된 정보를 토대로 상기 로봇 몸체를 구동시키는 로봇 제어부; 및
    상기 로봇 몸체에 장착되며, 상기 수상 환경에서 상기 로봇 몸체의 위치를 인식하도록 하는 로봇 센서부를 포함하는 수상 인명 구조 시스템.

  3. 제5항에 있어서,
    상기 로봇 센서부는, 영상 센서, 초분광 센서(hyper-spectral camera), 적외선 영상센서(IR camera), 소나(sonar, 수중 음파 탐지기), 초음파 센서, 위치 추적부(GPS, global positioning system), 관성 측정부(IMU, Inertial Measurement Unit)를 포함하는 환경인식 센서(155) 중 적어도 어느 하나를 포함하는 수상 인명 구조 시스템.

  4. 제1항에 있어서,
    익수자 발생 시, 상기 관제 유닛에 의해 획득된 영상 정보 및 위치 정보를 통해 상기 구조 로봇의 현재 위치로부터 상기 익수자까지의 이동 경로가 설정되며,
    상기 구조 로봇은 상기 관제 유닛으로부터 상기 베이스 스테이션을 거쳐 받은 정보를 토대로 상기 이동 경로를 따라 자율 항법으로 이동 가능한 수상 인명 구조 시스템.

  5. 제7항에 있어서,
    상기 관제 유닛에 의해 실시간으로 획득되는 정보를 토대로, 상기 구조 로봇의 이동에 따른 상기 이동 경로는 실시간으로 보정되는 수상 인명 구조 시스템.

  6. 제1항에 따른 수상 인명 구조 시스템의 구조 방법에 있어서,
    상기 관제 유닛의 관제를 통해 상기 수상 환경에 대한 정보를 획득하는 정보 획득 단계;
    획득된 상기 정보를 상기 베이스 스테이션으로 전송하여, 상기 수상 환경 상태를 상기 베이스 스테이션에 전달하는 정보 전달 단계; 및
    상기 수상 환경에서 상기 익수자 발생에 대한 정보가 상기 베이스 스테이션에 전달되는 경우, 상기 구조 로봇을 구동하여 상기 익수자에게 보내는 구조 로봇 작동 단계;
    를 포함하는 수상 인명 구조 시스템의 구조 방법.

KR1020120127438A 2012-11-12 2012-11-12 수상 인명 구조 시스템 및 그의 구조 방법 KR101407158B1 (ko)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
KR1020120127438A KR101407158B1 (ko) 2012-11-12 2012-11-12 수상 인명 구조 시스템 및 그의 구조 방법

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
KR1020120127438A KR101407158B1 (ko) 2012-11-12 2012-11-12 수상 인명 구조 시스템 및 그의 구조 방법

Publications (2)

Publication NumberPublication Date
KR20140060746A KR20140060746A (ko) 2014-05-21
KR101407158B1 true KR101407158B1 (ko) 2014-06-13

Family

ID=50889958

Family Applications (1)

Application NumberTitlePriority DateFiling Date
KR1020120127438A KR101407158B1 (ko) 2012-11-12 2012-11-12 수상 인명 구조 시스템 및 그의 구조 방법

Country Status (1)

CountryLink
KR (1) KR101407158B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
KR20160020772A (ko) 2014-08-14 2016-02-24 경북대학교 산학협력단 로봇가디언모듈과 이를 이용한 로봇 안전 보장 장치 및 방법
KR20190115575A (ko) * 2018-04-03 2019-10-14 동명대학교산학협력단 해상 인명구조용 보트드론

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
KR101616070B1 (ko) 2014-06-02 2016-04-27 국방과학연구소 주야간 해양 안전관리 방법
KR101587153B1 (ko) * 2014-09-15 2016-01-20 숭실대학교산학협력단 수상에서 동작하는 무인 로봇의 동작 방법 및 수상에서 동작하는 무인 로봇
BG112542A (bg) * 2017-07-14 2019-01-31 Ганчо МИТЕВ Автономен спасителен пояс
KR101852770B1 (ko) 2017-10-24 2018-04-27 한국해양과학기술원 항공 초분광 영상을 이용한 사고 선박 및 익수자 탐지 방법
CN108298043B (zh) * 2018-01-29 2020-06-19 李颖 一种基于无人机和救生圈联动的水上智能救生装置
KR102065516B1 (ko) * 2018-10-18 2020-01-13 조선대학교산학협력단 수중 카메라를 이용한 안전 감시 시스템
KR102210443B1 (ko) * 2018-11-26 2021-02-01 한국로봇융합연구원 탐색 위치 자동 설정 시스템 및 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2005181199A (ja) * 2003-12-22 2005-07-07 Nec Fielding Ltd 無人水中監視探索システム、無人水中探索機、探索基地システム、監視センター装置、及びプログラム
KR101003208B1 (ko) * 2009-05-20 2010-12-21 아주대학교산학협력단 지능형 감시 시스템 및 방법
  • 2012
    • 2012-11-12 KR KR1020120127438A patent/KR101407158B1/ko active IP Right Grant

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2005181199A (ja) * 2003-12-22 2005-07-07 Nec Fielding Ltd 無人水中監視探索システム、無人水中探索機、探索基地システム、監視センター装置、及びプログラム
KR101003208B1 (ko) * 2009-05-20 2010-12-21 아주대학교산학협력단 지능형 감시 시스템 및 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
KR20160020772A (ko) 2014-08-14 2016-02-24 경북대학교 산학협력단 로봇가디언모듈과 이를 이용한 로봇 안전 보장 장치 및 방법
KR20190115575A (ko) * 2018-04-03 2019-10-14 동명대학교산학협력단 해상 인명구조용 보트드론
KR102050519B1 (ko) * 2018-04-03 2019-11-29 동명대학교산학협력단 해상 인명구조용 보트드론

Also Published As

Publication numberPublication date
KR20140060746A (ko) 2014-05-21

Similar Documents

PublicationPublication DateTitle
KR101407158B1 (ko) 2014-06-13 수상 인명 구조 시스템 및 그의 구조 방법
US20190146503A1 (en) 2019-05-16 Control device, control method, and computer program
CN106909145B (zh) 2020-01-14 无人航道测量船障碍物实时感知避障系统与方法
US20220122288A1 (en) 2022-04-21 Information processing device, information processing method, and computer program
US20220107643A1 (en) 2022-04-07 Control device, imaging device, control method, imaging method, and computer program
KR101812487B1 (ko) 2017-12-27 드론을 이용한 해상 인명구조시스템
CN108298043B (zh) 2020-06-19 一种基于无人机和救生圈联动的水上智能救生装置
CN106933232A (zh) 2017-07-07 一种基于协同无人艇群的环境感知系统和方法
KR101711602B1 (ko) 2017-03-02 무인 비행 장치를 이용한 안전진단 시스템 및 이의 제어 방법
KR101804129B1 (ko) 2018-01-11 안전 부표
JP2015072570A (ja) 2015-04-16 車両の制御装置
JP6080568B2 (ja) 2017-02-15 監視システム
KR102007849B1 (ko) 2019-08-06 무인항공기에 탑재된 3d 라이다를 이용한 선박 입출항 지원 시스템 및 방법
JP6482857B2 (ja) 2019-03-13 監視システム
JP2014177162A (ja) 2014-09-25 撮影システム
KR20150118499A (ko) 2015-10-22 무인기를 이용한 인명 구조 시스템 및 방법
JP5282457B2 (ja) 2013-09-04 救援ロボットシステム、救援方法及び救援ロボット
KR101134627B1 (ko) 2012-04-09 위치센서와 기름 검출센서를 이용한 침몰선박 검색시스템
JP2021144751A (ja) 2021-09-24 船舶のナビゲーションシステム
JP4920347B2 (ja) 2012-04-18 水中監視システム
JP7123719B2 (ja) 2022-08-23 飛行ロボットおよび監視システム
KR101462100B1 (ko) 2014-11-17 해저용 위치확인장치 및 이를 이용한 수중 위치확인시스템
KR101587153B1 (ko) 2016-01-20 수상에서 동작하는 무인 로봇의 동작 방법 및 수상에서 동작하는 무인 로봇
JP7133196B2 (ja) 2022-09-08 水中機器回収方法、及び水中機器回収システム
KR20210029959A (ko) 2021-03-17 시각 장애인 안내용 드론 시스템
DateCodeTitleDescription
2012-11-12 A201 Request for examination
2013-10-23 E902 Notification of reason for refusal
2013-12-23 AMND Amendment
2014-04-22 E601 Decision to refuse application
2014-04-22 X091 Application refused [patent]
2014-05-22 AMND Amendment
2014-06-02 X701 Decision to grant (after re-examination)
2014-06-05 GRNT Written decision to grant
2017-03-28 FPAY Annual fee payment

Payment date: 20170328

Year of fee payment: 4

2018-04-06 FPAY Annual fee payment

Payment date: 20180406

Year of fee payment: 5

2019-03-25 FPAY Annual fee payment

Payment date: 20190325

Year of fee payment: 6