본문 바로가기

IT기반지식/디지털신기술

상황인식 컴퓨팅 기술동향

상황인식 컴퓨팅 기술 동향

 

임신영* 허재두** 박광로*** 김채규****

21세기 ICT(Information & Communication Technology)의 주된 특징 중 하나인 기술 융합(Technology Convergence) 추세는 기존 학문 영역, 기술 영역 및 서비스 영역에 이르는 광범위한 영역에서 변화를 주도하는 요인이 되고 있다. 이러한 추세의 발원지는 사용자의 ICT 서비스에 대한 요구사항이 보다 고급화 되고 있으며 동시에 개성을 추구하는 데에 기인한다고 볼 수 있다. 본 고는 그 동안 컴퓨터와 인간의 상호 작용(Human Computer Interaction: HCI) 기술과 유비쿼터스 컴퓨팅을 통하여 인간과 컴퓨터간의 장벽을 해소하려는 노력이 지속되는 가운데 이러한 문제 해결의 접근방법 중 하나로 대두되고 있는 상황인식 컴퓨팅(Context-Aware Computing) 기술에 대한 동향을 소개하고자 한다. HCI 기술과 유비쿼터스 컴퓨팅 기술 등에서 목표로 하는 인간과 컴퓨터간의 장벽 해소를 상황인식 컴퓨팅 기술에서는 어떻게 접근하고 있는지를 살펴봄으로써 장벽 해소 문제 해결을 위한 또 다른 기술적 대안을 제시하고자 한다. 본 고에서는 상황인식 컴퓨팅의 기술적 배경, 기술의 특성과 국내외 연구동향을 중심으로 살펴본다.

I. 서 론

최근 유비쿼터스 컴퓨팅의 열기가 식지 않는 가운데 향후 제공될 유비쿼터스 컴퓨팅을 이용한 서비스가 과연 사용자에게 얼마나 효과적이고 경제적으로 편리함을 주는가 그리고 이러한 기술의 정보화 역기능의 문제는 없는가를 점검해 볼 필요가 있다. 현재 거론되고 있는 유비쿼터스 컴퓨팅 기술, 상황인식 컴퓨팅 기술 그리고 그 이전의 HCI 기술 등이 사용자의 유비쿼터스 서비스 요구를 만족시켜 줄 수 있는지에 대한 검토 역시 필요하다. 특히, 기술 분야의 융합이 가속화되어 가는 상황에서 이러한 기술들이 우리의 주변 환경에 좋은 영향을 미치기 위하여 어떻게 활용될 수 있고 또한 기술적 적용 방안을 모색하는 것이 현실적인 접근 방법이라고 판단된다. 이러한 맥락에서 디지털 홈, 지능형 로봇 및 텔레메틱스 기술 분야는 우리의 주변환경과 매우 밀접한 관계에 있으며, 또한 유비쿼터스 및 상황인식 기술을 적용하여 우리의 업무와 일상 생활에 유익한 서비스를 제공할 수 있는 분야로 판단된다. 본 고의 주된 목적은 인간과 컴퓨터간의 의사 소통에 대한 장벽 해소를 위한 상황인식 컴퓨팅에 대한 소개이다. 유비쿼터스 컴퓨팅과 비교하면 광의의 유비쿼터스 컴퓨팅에 상황인식 컴퓨팅(Context-Aware Computing)이 포함되지만 기술의 정의부터 구분되는 기술 분야이며, 이는 궁극적인 유비쿼터스 서비스 환경이 조성되기 위하여 반드시 필요한 기술 요소가 될 것이다. 본 고의 구성은 상황인식 컴퓨팅의 기술적 배경, 기술의 특성 및 구성에 이어서 국내외 연구 동향 순으로 되어 있다.

II. 기술의 배경

본 고에서 논할 상황인식 컴퓨팅 분야는 광의의 견지에서 볼 때 유비쿼터스 컴퓨팅의 일부분으로 볼 수 있으나, 유비쿼터스 컴퓨팅과 상황인식 컴퓨팅의 기술 및 적용 측면에서 < 1>과 같이 상이한 점이 있기 때문에 동일한 목표에 대한 접근 방법은 상이하다고 할 수 있다. , 유비쿼터스 컴퓨팅은 컴퓨팅, 통신, 접속방식, 제공하는 콘텐츠 및 사람이 컴퓨터의 존재를 인지하지 않도록 조용히 처리하는 특성(5C: Computing, Communication, Connectivity, Contents, Calm)을 이용하여 언제 어디서나 어떠한 형태의 네트워크에서도 모든 이기종 기기간의 연동을 통하여 다양한 서비스를 제공하는 것(5 ANY: Anytime, Anywhere, Any Network, Any Device, Any Service)을 지향하고 있다. 이는 궁극적으로 인터넷 기반의 근거리 무선 통신 인터페이스가 장착된 지능형 단말 기능을 제공하는 스마트 오브젝트(Smart Object), 능동형 및 수동형 센서와 마이크로 컴퓨터들과 연동된 지능화된 공간인 스마트 스페이스(Smart Space), 컴퓨터를 소지하거나 소지하지 않은 채 명령하지 않고 컴퓨팅 서비스를 받을 수 있는 일상생활인 스마트 라이프(Smart Life)를 실현하기 위한 기술 요소간의 유기적 결합 즉, 기술 융합을 통하여 가능해 질 수 있다.

이러한 유비쿼터스 컴퓨팅에 비하여 상황인식 컴퓨팅은 인간 세계의 의사 소통과 거의 동일한 수준으로 인간과 컴퓨터간의 의사 소통이 가능하도록 한다는 동기와 목표에서 출발하고 있다. , 인간은 자신의 생각과 의사를 타인에게 전달하는 과정에서 다양한 수단을 적절하게 사용함으로써 매우 효과적으로 의사소통을 하고 있다. 이는 여러 가지 원인이 있을 수 있는데 대표적으로 인간이 공유하는 언어의 풍부한 표현력, 일상사의 이치에 대한 상식 차원의 이해, 일과상의 상황에 대한 암묵적인 이해를 그 원인으로 들 수 있다. 인간은 서로 대화를 나눌 때, 대화 도중 함축적인 상황 정보(제스처, 표정 등)를 사용하여 대화의 폭을 넓힐 수 있다. 불행하게도 현재 이러한 인간간의 의사 전달 능력은 인간이 컴퓨터와 상호 작용하는 과정에서 제대로 적용되지 못하고 있다. 전형적인 대화형 컴퓨팅 기술의 경우, 컴퓨터에 제공할 입력 방식은 빈약한 수준이다. 결과적으로 현재 인간이 표현하고 전달하고자 하는 상황을 컴퓨터가 충분히 소화하여 활용하지 못하고 있다. 이러한 상황(Context) 정보에 대하여 컴퓨터가 보다 용이하게 접근하여 이해하고 또한 이를 적절히 사용하도록 한다면 인간-컴퓨터 상호작용에 있어 대화의 수준을 향상시킬 수 있고, 결국 이를 기반으로 하여 인간은 보다 유용한 컴퓨팅 서비스(: 유비쿼터스 컴퓨팅 서비스)를 받을 수 있을 것이다[8].

상황인식 컴퓨팅의 역사는 유비쿼터스 컴퓨팅의 역사와 근원적으로 동일하며, 그 역사는 1991년부터 시작된다고 볼 수 있다. , Mark Weiser가 유비쿼터스 컴퓨팅에 대한 비전을 1988년에 최초로 제시하였으며, 이후 유비쿼터스 컴퓨팅을 구체적으로 실생활에 구현하기 위한 모델을 1991년 제시한 바 있다[23]. 이러한 비전들은 오늘날 Pervasive Computing , 여러 곳에 산재한 컴퓨팅 자원을 이용, 사용자에게 위치에 무관한 서비스의 연속성을 제공하는 방향으로 연구가 진행중이다. 이후 연대기별로 유비쿼터스 컴퓨팅 및 상황인식 컴퓨팅에 대한 일련의 사건을 정리하면 아래와 같다. 이러한 역사에서 중요한 사건으로 1994 Moran이 유비쿼터스 컴퓨팅의 설계 과정에 포함되는 상황(Context)에 대한 개념을 정립한 것이며, 이후 상황인식 컴퓨팅에 대한 연구와 관련 기술 개발이 가속화 되기 시작하였다. 특히, Anind Dey의 경우, 실질적인 상황인식 컴퓨팅의 응용 기술에 기여한 바가 있다. 또한 AT&T Cambridge의 경우, Sentient Computing 프로젝트 내용 중 상황인식에 대한 다양한 접근방식을 제시하기도 하였다. 이와 같이 1990년대 말에서 2000년대 초에 이르는 동안 MIT, CMU, UC Berkeley, IBM, HP, AT&T, MicroSoft 등에서 유비쿼터스 컴퓨팅 관련 프로젝트가 수행되면서 산출된 내용 중 상황인식 컴퓨팅을 이용한 연구 결과를 찾을 수 있다[16, 21-22].

1991, Weiser, Vision of Ubiquitous Computing(현재의 Pervasive Computing)

1993, Mackay, Augmented Reality

1994, Moran, ACMs Special Issue of HCI on Context in Design

1997 Ishii, Tangible Interfaces

1997, Bass, Wearable Computers

1998, Streitz, Konomi, Burkhardt, Cooperative Buildings

1998, Norman, Invisible Computing

1999, Gregory Abowd, Daniel Salber, Anind Dey, Context Toolkit

III. 기술의 특성 및 구성

상황인식 기술을 효과적으로 사용하려면, 본질적으로 상황이 무엇이고, 이를 어떻게 사용할 수 있는지 그리고 이를 사용하기 위한 기술 구조에 대한 이해가 필요하다. 상황에 대한 이해는 응용 개발자가 응용 서비스에 어떤 상황을 활용할지를 선택할 수 있도록 할 것이며, 상황을 활용하는 방법을 이해하면 개발자가 응용 서비스에서 지원할 상황인식 행위가 무엇이 될지를 결정할 수 있을 것이다. 또한 상황과 관련된 기술 구조에 대한 이해는 개발자가 응용 서비스를 용이하게 구축하는 것을 지원할 것이다. 이러한 기술 구조의 이해를 위하여 상황을 기반으로 하는 서비스추상화의 이해가 우선 요구된다. 이러한 분야를 포괄적으로 포함한 상황인식 컴퓨팅의 기술적 배경을 이해하기 위하여 본 장에서는 상황(Context), 상황인식 컴퓨팅, 상황인식 응용(Context-Aware Applications) 서비스의 개념에 대하여 논한다. 상황인식 기술 전반에 대한 개념적인 구성은 (그림 1)과 같이 표현할 수 있다[24].

1. Context

앞서 상황인식 컴퓨팅 관련 역사에서도 찾을 수 있듯이 상황에 대한 정의는 다양한 모습으로 제시되었으며, 근원적인 문제는 대부분의 사람들이 상황이 무엇인지를 무언적으로 이해하는 반면 이를 구체적으로 규명하여 정의하는 것이 어렵다는 점이다. 상황인식 컴퓨팅 분야에서 관례적으로 사용할 수 있는 특정 정의를 도출하여 이를 각 분야의 연구에서 적용하는 시도는 있었지만 대부분 성공적이지 못하였다. 이러한 연구 중 최초로 상황인식에 용어와 정의를 성공적으로 소개한 사례인 Schilit Theimer의 경우, 상황은 위치를 의미하는 것으로 근접한 사람과 사물의 확인 및 이러한 실체에 대한 변화를 의미하였다. 이러한 예를 이용하여 상황을 정의하는 방식은 다른 응용에 적용하기에는 어려움이 있다. 한편 상황의 동의어를 단순히 활용한 경우, , 상황을 주위 환경 또는 처해 있는 상황으로 언급하여 정의한 경우가 있다. 여기에서 표현한 정의와 함께 상황을 위한 동의어를 단순하게 사용한 정의들은 실제 적용에 많은 어려움이 있다. 이런 의미에서 Schilit Pascoe의 정의는 실제 적용적 측면에서 가장 근접한 정의로 보인다. Schilit는 상황의 중요한 측면으로 어디에 존재하고 누구와 함께 있으며, 주변에 무슨 자원이 있는지를 상황으로 정의하였다. Pascoe는 상황을 특정 관심이 가는 실체의 물리적 개념적 상태의 부분 집합으로 정의하였다. 이러한 정의는 한정적으로 활용가능하다. 상황은 응용 및 사용자 집합과 관련 있는 모든 주변 상황에 대하여 관여하게 된다. 이러한 상황은 주변 상황에 따라 수시로 변하기 때문에 모든 주변 상황과 어느 측면이 중요한지를 열거할 수 없게 된다[13, 22].

상황의 본질적인 정의는 실세계(Real World)에 존재하는 실체(Entity)의 상태를 특징화 하여 정의한 정보라고 정의할 수 있으며, 여기서 실체란 인간, 장소 또는 사람과 서비스간의 상호 작용을 의미한다고 할 수 있다. 이러한 정의는 개발 시 주어진 응용 서비스 시나리오를 위한 상황 전개 작업을 용이하게 할 수 있다. 만약 이러한 정보가 상호 작용하여 참여자의 상황을 특성화 할 수 있으면, 그 정보가 상황이 된다고 볼 수 있다. 기본적인 상황 인식 응용을 예로 들면 실내 이동식 안내(Tour guide)를 들 수 있다. 이 경우, 확실한 실체는 사람, 응용 tour site 3개가 된다. 이 예에서 우리는 날씨다른 사람의 존재라는 2종류의 정보를 사용할 수 있는데 이 경우 둘 중 하나가 상황인지를 결정하기 위하여 정의를 사용한다. 날씨응용에 영향을 미치지 않는데 그 이유는 날씨가 실내(tour site)와의 상관 관계 측면에서 낮은 관련성이 있기 때문이다. 하지만 다른 사람의 존재의 경우, 사용자의 주변 상황에 특징을 짓는데 사용할 수 있다. 사용자가 다른 사람과 실내에서 tour를 한다면 이들이 방문하는 곳이 다른 사람에게 특별한 흥미를 줄 것이다. 그러므로 다른 사람의 존재는 상황이 될 수 있다. 왜냐하면 사용자의 주변 상황을 특징화 할 수 있기 때문이다.

2. Context-Aware Computing

상황인식 컴퓨팅은 1994 Schilit Theimer에 의하여 최초로 논의된 바 있다. 그 당시 상황인식 컴퓨팅을 사용 장소, 주변 사람과 물체의 집합에 따라 적응적이며, 동시에 시간이 경과되면서 이러한 대상의 변화까지 수용할 수 있는 소프트웨어로 정의하였다. 이후 상황인식 컴퓨팅을 정의하고자 여러 차례 시도하였으나 대부분의 경우, 지나치게 특정적이었다. 최근에 개선된 상황인식 컴퓨팅의 정의는 사용자의 작업과 관련 있는 적절한 정보 또는 서비스를 사용자에게 제공하는 과정에서 상황을 사용하는 경우 이를 상황인식 시스템으로 정의 할 수 있다. 이러한 상황의 종류는 다양할 수 있으나, 일반적인 상황 정보는 다음과 같이 분류할 수 있다[22].

- 사용자 상황

- 물리적 환경 상황

- 컴퓨팅 시스템 상황

- 사용자-컴퓨터 상호 작용 이력

- 기타 미분류 상황

이러한 일반화된 상황 분류를 디지털 홈 환경에 적용하면 다음과 같은 세부적인 상황 분류가 가능할 수 있다.

- 사용자 상황

- 신원 상황(ID, 성명)

- 신체 상황(맥박, 혈압, 체온, 음성)

- 물리적 환경 상황

- 공간 상황(위치, 방향, 속도)

- 시간 상황(일자, 시각, 계절)

- 환경 상황(온도, 습도, 조도, 소음)

- 활동 상황(인접인, 행동, 일정)

- 컴퓨팅 시스템 상황

- 가용 자원(배터리, 디스플레이, 인터넷, 시스템)

- 가용 상황(자원, 장비, 시설)

- 접근 상황(사용자, 허용정보, 인접성)

- 사용자-컴퓨터 상호 작용 이력

- 이력 상황(사용자, 서비스, 시간)

- 장애 상황(시간-사용자-서비스)

- 기타 미분류 상황

3. Context-Aware Applications

상황인식의 정의 문제와 유사하게 상황인식 응용의 중요한 특성을 일반화 하는 시도가 있었다. 역시 이러한 특성들은 특정 응용에 적용하기에는 지나치게 세분화 되는 경향이 있었다. 그러므로 상황인식 응용의 분류를 통하여 특징이 되는 경향을 추출하고 이를 일반화된 상황인식 응용으로 정의하는 접근 방법을 이용하였다. 제안한 분류는 이전의 분류로부터 구한 아이디어와 기존 상황인식 응용을 만족하도록 일반화 하는 것을 의미한다. 상황인식 응용이 지원할 수 있는 특징을 3가지로 분류해 보면 다음과 같다.

사용자에게 정보와 서비스 제공(presentation)

사용자를 위한 서비스의 자동 실행(execution)

이후 검색을 위한 상황 정보의 표시(tagging)

이러한 정의에 대한 이해를 통하여 상황인식 응용이 지원해야 할 행동과 특징이 무엇이고, 이러한 행동을 수행하기 위하여 요구되는 상황이 무엇인지를 개발자가 용이하게 결정할 수 있게 된다. 응용 개발자는 설계에서 실제 구현으로 연결되는 과정에서 2가지 접근 방법을 이용할 수 있다. 하나는 설계자가 구조적인 서비스 또는 특징을 조합하여 응용을 구축하는 접근 방법과 다른 하나는 설계자가 대상이 되는 응용을 좀더 높은 차원에서 생각할 수 있도록 추상화 하는 접근 방법이다. 이를 지원하는 기술로는 상황인식 응용 개발 도구 기술이 요구되는데 이 기술에 포함될 내용으로는 상황의 획득과 접근, 상황인식 응용에 독립적인 상황인식 정보의 저장, 배포 및 실행이 포함되어야 한다. 또한 상황 정보의 추상화를 위한 기술(Abstraction), 상황 정보를 해석하는 기술(Interpretation) 그리고 유사한 상황 정보를 수집하는 기술(Aggregation) 3가지 기술 요소가 기본적으로 필요하다[7-8].

IV. 국내외 연구 동향

1. 국외 동향

. 미국 현황

전세계의 상황인식 컴퓨팅 연구의 약 60% 이상을 수행하는 곳은 미국으로 현재 미국 내에서 이 분야를 주도하는 연구그룹은 Berkeley 대학과 MIT가 있다. MIT의 경우, Media Lab내의 Context-Aware Computing 그룹의 Ted Selker 교수를 중심으로 관련 기업 연구소가 공동 참여하여 프로젝트를 수행하고 있다. 다음은 지금까지 MIT Media Lab내의 Context-Aware Computing 그룹에서 수행한 프로젝트 리스트이다.

Canopy Climb/Chameleon Mug/Chameleon Tables/Cheese/Dice/DriftCatcher/ Excerbike/ Eye Are/Flexor/Floor/Gesture Ball/Haptic Music Interface/Intelligent Spoon/Interruptions/I nVision/Jukebox/Media Helmet/Media/Windshield/MrWeb/Multimedia Bed/Necklace/ Talking Couch/Talking Trivet/Threshold/Wireless Power

위의 프로젝트는 상황인식의 기반 기술, 응용 기술 등을 대상으로 수행하였고 일반적으로 상황인식이 적용된 서비스 분야는 다음과 같다. 이러한 서비스를 제공하기 위하여 상황인식 컴퓨팅 기술이 직간접적으로 활용되었다고 볼 수 있다[3-6,9-12,14-15,17-20].

- 사무실 비서의 대리자 역할

- 회의 지원 역할(참석자 사전 연락, 회의실 준비, 의제 배포, 회의 진행 시 서기역할, 회의 후 회의결과 전달 등)

- 관광 정보 지원을 기반으로 하는 여행 안내자(Tourist Guides)

- 회사 내 근무자-근무위치, 회사 내 가용한 공간 및 공간 사용자 확인 역할

- 자택 또는 사무실 내 사용자 위치 추적

- 교육 목적의 그림 그리기 또는 그림 표현 지원

- 교육 과정 중 상황 인식이 개입된 교육 콘텐츠 서비스

- 컴퓨터 마우스 동작의 상황 인식을 통한 사용자 요구 사항 추론

- 침대와 잠자는 사람의 상황 인식을 이용한 숙면 서비스(Sleepers paradise)

- 말하는 소파(소파에 내장된 센서로 사용자 인지, 소파에 연결된 홈 서버에서 사용자 별 일정의 음성 안내 등) 서비스(Talking Couch)

- 사용자의 인터넷 정보 검색 과정에서 의도하는 바와 원하는 정보 인지를 모델링하여 정보 서비스를 지능화함(Attentive System)

- 사용자 인지 기반 개인 홈페이지 제작 지원 기술(사용자는 전자메일로 시스템과 대화, 시스템은 메일에 따라 웹을 제작)(Mr. Web: An Automated Interactive Webmaster)

- 눈동자 움직임을 기반으로 하는 상황 인식을 통한 사용자 의도 파악 및 관련 서비스 기술

- 인터넷 웹 브라우징 분석을 통한 공동 관심분야 프로필 기반의 직장내 관심 분야의 그룹화 지원 기술(Context-Aware Proxy based System: CAPS)

- 비전 패턴을 이용한 사용자 의도 이해(상황 인식 지원) 기술

- 캠퍼스 내 교실 이동 후 학습 환경 자동 설정 기술(해당 시간에 진행되는 수업 내용에 따라 사용자 노트북에 학습 내용 연결)

- 컴퓨터 지원 기반 공동 협업 작업 시 작업 참여자의 의도 및 상황 인식을 통한 작업 효율 향상 기술(CAPS 기술 연장)

한편 다양한 상황인식 응용 연구가 병행하여 추진중에 있으며, 이 분야의 이해를 돕기 위하여 Georgia 공대에서 수행한 2종류의 상황 인식 프로젝트를 소개하고자 한다[7-8].

- 회의 칠판(Meeting Board)((그림 1) (그림 2) 참조)

- 출입 상황 안내(In/Out Board)((그림 3) 참조)

(그림 1)의 경우, 사용자는 자신의 ID를 칠판에 인식한 뒤 칠판에 회의 내용을 발표한다. 사용자의 발표 내용은 음성과 그림 형태로 칠판 뒤에 설치된 컴퓨터 시스템에 시간대별로 저장되어 회의 참여자간의 의견 교환과 관련 정보 검색 및 활용에 사용된다.

 (그림 2)의 경우, 회의 칠판에서 회의 참가자의 발표 내용 등을 통하여 회의가 진행되고, 이를 실시간 또는 회의 종료 후 사용자 및 참가자들이 회의 내용을 공유하여 활용하는 서비스 화면을 보여준다. 참여자별로 칠판에 그린 그림의 색을 달리하고 발표한 음성을 재생할 수 있는 서비스를 보여준다.

(그림 3)의 경우, 사용자 식별 리더기(RFID 또는 IC 카드)를 이용하여 사용자가 특정 공간을 출입할 때 인식기에 사용자의 신원을 확인하도록 하여 사용자의 재실 상황과 부재시 언제부터 부재 중인지를 알 수 있도록 안내 화면에 사용자의 상황을 보여주는 결과 화면이다.

이러한 상황인식 컴퓨팅 기술은 MIT Media Lab MiThril 프로젝트에서 비디오 카메라와 컴퓨터, 센싱 시스템이 결합되어 동적으로 실시간 비디오, 오디오 정보를 감지하여 보여주는 상황인식 시스템 및 착용형 컴퓨터 플랫폼 기술을 제안하고 있다.

또한 BodyMedia사는 착용형 컴퓨터를 휴대 의료용 기구로 적용시켜 운동이나 평상시 건강을 모니터링하며, Levis사는 이동단말기나 MP3 플레이어 등을 자킷과 같이 의복에 부착하거나 시계, 귀걸이, 반지 등의 장신구에 컴퓨팅 기능을 내장하여 상황인식을 활용한 건강 관리 기술의 가능성을 보여주고 있다.

또한 미국, 일본 등 주요 선진국에서는 오감정보처리기술을 21세기 핵심기술 분야로 선정하고 대규모 개발 프로젝트를 진행중이며, 시제품 및 표준 기술을 개발하는 단계에 이르고 있다. 또한 후각을 이용한 인터페이스 기술을 미국의 ARC(Artificial Reality Corporation)에서 개발 중이며, 미각 기술에 대한 연구는 현재 초보적인 수준이다. 한편 Cornell 대학의 Human Computer Interaction Group Garie K. Gay 교수 연구실 역시 Context-Aware Computing 분야에 학술적으로 기여하고 있으며, Georgia Technology Institute의 경우, Anind K. Dey Gregory D. Abowd가 이 분야에 참여하고 있다.

미국 정부 차원의 지원으로는 미 대통령 기술자문위 소속 NIST 등 국립연구소와 MIT 등 세계적인 명문 대학의 연구소에서는 IT 관련 하드웨어 및 소프트웨어의 비약적인 발전으로 인하여 컴퓨팅 방식 및 자원 배분의 다변화 및 비용 절감의 효과를 얻기 위한 연구를 수행중이다. 이러한 연구의 동기와 배경은 향후 유비쿼터스 네트워크 기반에 연동된 다양하면서도 일상적인 컴퓨팅 디바이스들이 도래할 것으로 예상하고 있으며, 이를 통하여 유비쿼터스 컴퓨팅을 활성화할 수 있다는 전망을 전제로 하며, 궁극적으로 새로운 스마트 공간 개념을 실현할 수 있는 기술 수요에 대한 공급을 염두에 둔 연구 개발이 본격화 되기 시작한 것을 의미한다고 할 수 있다. 이 연구는 스마트 공간이라는 기술 개념으로 작업자의 인식이 가능하며 모든 상황을 인식하는 것을 전제로 다양한 형태의 컴퓨터들이 서로 연동되어 있는 공간을 연구 개발하는 것이다.

이러한 공간은 유비쿼터스 디바이스 기술, 네트워킹 기술 및 정보 검색 능력이 기술적으로 통합되어 소기의 기능 수행이 가능한 환경이 구축되어야 하며, 미래의 스마트 공간은 음성 인터페이스 기술, 통합 멀티미디어 기술, 작업 부하를 감당할 수 있는 컴퓨팅 기술, 개인 통신 기능이 포함된 무선 네트워킹 기술, 언어 번역 기술, 접촉식 대형 스크린 디스플레이 기술 등이 포함되어 유비쿼터스 서비스를 위한 명령, 분석 및 설계를 지원할 것으로 예측하고 있다. NIST의 경우, 스마트 공간의 개발에 센서 기반을 강화한 상황인식 인터페이스 시험을 통하여 사용자 개개인의 신원 확인과 발언 내용의 인식이 가능하게 하는 기술을 개발중에 있으며, NIST 연구진들은 안면 영상, 성문, 마이크로폰 배열로부터 음원 위치 추적의 수행이 가능하도록 영상 및 음성 데이터 스트림 통합 처리 능력이 있는 센서 퓨전 기술을 주요 이슈로 생각하고 있다.

이러한 기술적 이슈가 해결되면 독특한 신원 확인자(person recognizer)를 생성할 수 있으며, 스마트 공간내에 존재하는 개개인은 각기 신원 확인자를 이용하여 자신의 신원을 확인하며 동시에 사용자가 발표하는 모든 내용은 문자화 되어 발표자 정보가 포함된 상태로 특정 공간(3의 공간, 물리적 공간이 아닌 가상으로 설정한 컴퓨터상의 공간)에 존재하는 공동 협업 작업그룹 내에서 이를 공유하는 것을 목표로 연구개발중에 있다.

이러한 연구개발은 미 국방성 DARPA SensIT(Sensor Information Technology) 프로그램과 같이 연계되어 이 프로그램의 결과물인 센서 정보 기술을 이용하여 사용자의 신원 확인 및 영상-음성 정보를 감지하고, 감지된 정보를 기반으로 상황인식(Context-Aware) 정보를 추출하여 해당되는 상황에 대응되는 상황 서비스를 사용자에게 제공하는 기술을 목표로 연구개발이 추진중에 있다[25].

. 유럽 현황

독일의 프라운호퍼 기술 연구소(FIT)의 경우, Situation Awareness in Motion(SAiMotion) 프로젝트를 수행중에 있으며, Context modelling과 이에 연관된 Human-Computer Interaction을 집중적으로 연구하고 있다. 현재까지의 연구 결과는 Context Typology를 도출하여 사용자에게 적응할 수 있는 사용자 적응형의 상황 기술(Context Description: Contextualisation) 모델의 초기 버전이며, 이를 지속적으로 보완중에 있다[1].

유럽 연합 차원의 FP-6(Framework Program) 내의 지식 기반 사회의 국민 및 통치행정 부문 중 국민을 위한 시스템 및 서비스로 선정된 건강, 장애자 및 노약자, 행정, 환경 및 교통-관광 5개 분야에 적용하는 기술 가운데 행정 분야를 제외한 4개 분야에서 수행중인 약 279개 프로젝트의 내용에 Context-Aware 관련 지능 시스템 기술이 포함되어 추진중에 있다[2].

 2. 국내 기술현황

- 광주과기원의 경우, U-VR 연구실 중심으로 유비쿼터스 컴퓨팅 분야 중 사용자 인식 기술과 그 응용 기술에 대한 연구를 진행중이며, 홈 네트워크 환경에서 사용자 인식을 위한 상황인식 기술을 적용하기 위하여 연구중에 있다.

- 성균관대학교의 경우, 센서 네트워크 기반 모빌 홈 케어 시스템 연구 과제를 학교 내 정보통신공학부, 의과대학 및 ()올 메디쿠스와 공동 과제로 수행중이며, 이 과제에는 생체 신호 분석, 처리, 전달 관련 기술을 이용, 혈당 합병증 자가 진단을 자택 또는 이동 환경에서 실시간 임상 모니터링 서비스 형태로 제공하는 것을 목표로 연구중에 있다.

- 아주대학교의 경우, 환경에 적응하고 결함을 예방할 수 있는 지능형 협업 센서 네트워크 연구 2003 9월부터 2006 8월까지 3년간 수행하고 있으며, 주요 내용은 분산 컴퓨팅 환경에서 존재하는 분산 자원의 효율적인 관리 및 결함 예방을 위하여 분산 네트워크상의 이론적 센서를 기반으로 하는 지능화된 결함 예방 알고리즘 및 모델 도출을 목표로 연구하고 있다.

- 순천향대학교의 경우, 정보기술공학부 산하 컴퓨터시스템연구실에서 홈 네트워크 분야를 연구중에 있으며, 주로 홈 서버 개발 내에 정보가전제어 및 보일러 시뮬레이터, uPnP, 무선 단말 연동 지원 기술 등을 수행중에 있다.

- 상황인식 기반을 직간접적으로 도입하여 초보적인 응용 기술 솔루션을 보유하고 있는 국내 기업으로는 ()인터포스, 위즈정보기술() ()미디어아이 등으로 파악되고 있다.

V. 결 론

상황 인식 컴퓨팅 기술은 다양한 분야에 적용 가능한 기술로 판단되며, 이는 비단 디지털 홈 또는 지능형 로봇뿐만 아니라 컴퓨터 운영 체제 시스템, 네트워크 시스템, 발전소 운영 시스템, 착용형 컴퓨터 기반 건강 관리 시스템 등에 적용 가능하다고 볼 수 있다. 이러한 상황 인식 컴퓨팅 기술은 현재 유비쿼터스 컴퓨팅 기술을 가능케 하는 기술로 주목 받고 있다. 이러한 기술의 국제 표준화, 핵심 기술의 상용화 및 서비스 개발은 국가간 경쟁적으로 추진되고 있는 상황이므로 이에 대한 국내 대응이 요구되고 있다.

<참 고 문 헌>

[1]    ERCIM News, Special Theme: Ambient Intelligence, Oct. 2001.

[2]    http://europa.eu.int/comm/research/rtdinfo_en.html

[3]    G.D. Abowd et al., Investigating the capture, integration and access problem of ubiquitous computing in an educational setting, in Proceedings of CHI98, Apr. 1998, pp.440-447.

[4]    G.D. Abowd, C.G. Atkeson, J. Hong, S. Long, R. Kooper and M. Pinkerton, Cyberguide: A mobile context-aware tour guide, ACM Wireless Networks, 3(5), 1997, pp.421-433.

[5]   H.H. Clark and S.E. Brennan, Grounding in communication, in L.B. Resnick, J. Levine, & S.D. Teasley(Eds.), Perspectives on socially shared cognition. Washington, DC. 1991.

[6]    R. Davis et al., NotePals: Lightweight note sharing by the group, for the group, in Proceedings of CHI99, May 1999, pp.338-345.

[7]    A.K. Dey, D. Salber, M. Futakawa and G. Abowd, An architecture to support context-aware applications, submitted to UIST 99.

[8]    A.K. Dey and G.D. Abowd, Towards an understanding of context and context-awareness, submitted to HUC 99.

[9]    S. Feiner, B. MacIntyre, T. Hollerer and A. Webster, A Touring Machine: Prototyping 3D mobile augmented reality systems for exploring the urban environment, in Proceedings of the 1st International Symposium on Wearable Computers, Oct. 1997, pp.74-81.

[10]  S. Fels et al., Progress of C-MAP: A context-aware mobile assistant, in Proceeding of AAAI 1998 Spring Symposium on Intelligent Environments, Technical Report SS-98-02, Mar. 1998, pp.60-67.

[11]  M. Lamming and M. Flynn, Forget-me-not: Intimate computing in support of human memory, in Proceedings of FRIEND21: International Symposium on Next Generation Human Interfaces, 1994, pp.125-128.

[12]  Y. Nishibe et al., Mobile digital assistants for community support, AAAI Magazine 19(2), Summer 1998, pp.31-49.

[13] J. Pascoe, Adding generic contextual capabilities to wearable computers, in Proceedings of 2nd International Symposium on Wearable Computers, Oct. 1998, pp.92-99.

[14]  J. Rekimoto, Y. Ayatsuka and K. Hayashi, Augment-able reality: Situated communications through physical and digital spaces, in Proceedings of the 2nd International Symposium on Wearable Computers, Oct. 1998, pp.68-75.

[15]  B. Rhodes, The Wearable Remembrance Agent: A system for augmented memory, in Proceedings of the 1st International Symposium on Wearable Computers, Oct. 1997, pp.123-128.

[16]  D. Salber, A.K. Dey and G.D. Abowd, The Context Toolkit: Aiding the development of context-enabled applications, in Proceedings of CHI99, pp.434-441.

[17]  U. Shardanand and P. Maes, Social information filtering: algorithms for automating 'word of mouth, in Proceedings of CHI95, May 1995, pp.210-217.

[18]  T. Starner, D. Kirsch and S. Assefa, The Locust Swarm: An environmentally-powered, networkless location and messaging system, in Proceedings of the 1st International Symposium on Wearable Computers, Oct. 1997, pp.169-170.

[19]  L.J. Stifelman, Augmenting real-world objects: A paper-based audio notebook, in Proceedings of CHI96, Apr. 1996, pp.199-200.

[20]  Dey, A.K. et al. The Conference Assistant: Combining context-awareness with wearable computing. Proceedings of the 3rd International Symposium on Wearable Computers(ISWC 99), 1999, pp.21-28.

[21]  Dey, A.K.. Abowd, G.D. and Salber, D. A Context-based Infrastructure for Smart Environments. Proceedings of the 1st International Workshop on Managing Interactions in Smart Environments (MANSE 99), 1999, pp. 14-128.

[22]  Schilit, B., Adams, N. Want, R. Context-Aware Computing Applications. Proceedings of the 1st International Workshop on Mobile Computing Systems and Applications, 1994, pp.85-90.

[23]  Weiser, M. The Computer of the 21st Century. Scientific American, 1991, 265 (3), pp.66-75.

[24] H. Liberman, T. Selker, 'Out of context: Computer systems that adapts to, and learn from, context', pp. 617-632, Vol. 39, NOS 3&4, IBM Systems Journal, 2000.

[25] 'Information Technology - The 21st Century Revolution' , 미국 대통령기술자문위, 2001.

 

*발췌 : ITFIND 주간기술동향 (2004.04.20)


'IT기반지식 > 디지털신기술' 카테고리의 다른 글

MEMS - 3. 도시바의 RF 이노베이션  (0) 2009.05.25
MEMS - 2. 카메라모듈 혁신  (0) 2009.05.25
MEMS - 1.시장동향  (0) 2009.05.25
Semantic WEB  (0) 2009.05.14
가상화 - IBM Virtual I/O Server와 VLAN  (1) 2009.05.12