태터데스크 관리자

도움말
닫기
적용하기   첫페이지 만들기

태터데스크 메시지

저장하였습니다.

플라밍고 | 빅데이터 성능관리 솔루션, 플라밍고



다양한 빅데이터 분석 환경에서 시스템 운영자 및 분석가는 시스템 성능 관리에 큰 어려움을 겪고 있습니다.

서버 중단 시 인지하기 조차 힘든 Scale Out 및 HA 특성을 가진 빅데이터 분석 환경을 보다 투명하게 관리할 수 있는 통합된 솔루션이 필요하죠. 

바로 엑셈의 Flamingo 입니다! 

빅데이터 성능 관리 솔루션 플라밍고가 업데이트 되었다고 하는데요, 함께 알아봅시다 :)



1. 제품 개요

Flamingo는 빅데이터 플랫폼인 하둡 클러스터의 통합 관리 솔루션으로, 하둡과 에코 시스템의 실시간 서비스 감시 및 주요 성능 지표의 수집, 진단 및 모니터링, 데이터 처리를 위한 워크플로우  작성, 데이터 분석 지원까지 이르는 하둡 시스템의 가용성 및 성능의 관리를 효율적으로 수행할 수 있도록 지원합니다.



2. 제품 특징
2.1 Realtime Monitoring
- Hadoop과 EcoSystem에 최적화된 다양한 성능 지표의 실시간 감시
- 지원 Hadoop Ecosystems
 (1) Hadoop Core Server 
 (2) Apache Spark
 (3) Apache Hive
 (4) HDFS
 (5) Apache Oozie
 (6) Zookeeper
 (7) HBase
 (8) Cluster Servers

2.2 Workflow
- 작성하기 어려운 워크플로우를 간단히 작성하고 손쉽게 테스트할 수 있는 환경 지원
- workflow지원 형식
 (1) Workflow (Designer & Monitoring)
 (2) Apache Oozie workflow (Designer & Manager & Monitoring)

2.3 Data Analysis
- 다양한 빅데이터 환경에서 필요한 정보 도출을 위한 분석 환경 지원
- 지원 방식
 (1) Notebook(R/python 등)
 (2) Hive, HBase Editor
 (3) R-Studio 연계 지원

2.4 Security
- 설정하기 어려운 Hadoop과 Ecosystems의 보안 및 권한레벨까지의 설정까지 쉽게 할 수 있도록 지원
- 지원 Ecosystems 
 (1) HBase
 (2) Hive
 (3) Kafka
 (4) Solr
 (5) NiFi
 (6) Yarn
 (7) HDFS



3. 제품 스펙


구분

내용

비고

OS

Linux Kernel 2.6 이상

CentOS 6 이상

Database

PostgreSQL 9.2 이상

UTF-8 Character Set
Oozie
모니터링은 현재 PostgreSQL만 지원

CPU

8Core 이상

Memory

16G 이상

Java

JDK 1.8 이상

Hortonworks HDP

Hortonworks HDP 2.4 이상

상세 기능 지원 여부는 확인 필요

Cloudera CDH

Cloudera CDH 5.4 이상

상세 기능 지원 여부는 확인 필요

Apache Hadoop

Apache Hadoop 2.3 이상

Web Browser

Internet Explorer 10+, Google Chrome, Safari, Firefox

Chrome 사용을 권장함

제품 권장 해상도

1440 X 900 이상

기타

Jupyter notebookSSL 기능 사용을 위해서는 URL
도메인 및 유료 인증서를 확보한 사이트만 적용 가능

URL 도메인 및 유료 인증서를 확보하지 못한
사이트에서는 HTTP 방식으로만 세팅 가능



4. 업데이트 내용

4.1 Apache oozie 지원 기능 향상

- Apache ecosystem 중 workflow scheduler system인 oozie를 손쉽게 사용할 수 있는 기능 대거 추가

- oozie workflow designer : oozie의 workflow를 GUI 기반으로 손쉽게 만들고 테스트 할 수 있는 디자이너 기능


- oozie coordinator designer : oozie의 coordiantor를 GUI 기반으로 손쉽게 만들고 테스트 할 수 있는 디자이너 기능


- oozie bundle manager : oozie의 bundle을 GUI 기반으로 손쉽게 만들고 테스트 할 수 있는 관리자 기능



4.2 Security 기능 추가

- Hadoop과 Ecosystem들의 보안을 손쉽게 설정하고 권한 레벨까지 설정할 수 있는 기능 추가 (Ranger 기반)

- 지원 Ecosystems 

(1) HBase

(2) Hive

(3) Kafka

(4) Solr

(5) NiFi

(6) Yarn

(7) HDFS


<policy 관리 화면>


<audit 화면>


<보안 관련 세팅 화면>



앞으로도 계속 발전해 나갈 Flamingo 많은 기대와 응원 부탁드립니다.^^

플라밍고 파이팅 :)




기고 | 빅데이터개발팀 한현우

편집 | 사업기획팀 박예영



IT 만평 | AI가 바꾸는 미래, 날씨 편







가뭄 시 '제발 비를 내려주세요~'하며 제사를 지내던 시절은 이미 옛 말!

기상청을 믿지 못하는 시절도 이젠 안녕!

지금은 인공지능으로 보다 더 정확하고 빠르게 날씨를 예측하는 시대!

인공지능을 통한 날씨 예측으로 가뭄에 미리 대비한다면?

올 해 농사는 대박 예측!





기획 및 글 | 사업기획팀 박예영

그림 | 디자인기획팀 김보명


고평석의 '잘 하는 것들의 비밀' | 최종, 맹탕인 회의를 하는 것은 죄가 무겁다




  어릴 적부터 다양한 회의를 한다. 학급 회의부터 동아리 회의, 학과 회의, 세미나 준비 회의, 과제 회의 등등을 거친다. 회사에 와서 회의를 다시 하게 되면, “이전 회의들과는 무언가 다르겠지.”라고 생각한다. 그리고 한 해 한 해 지나면서 그 환상이 깨지게 된다. 회의 자체에 대해 회의적인 경우가 많아진다. 무능을 감추는 수단, 심지어 편가르는 수단으로 회의가 악용되는 것을 보며 그런 생각이 더욱 강해진다. 



하지만, 잘 하는 사람이 하는 회의는 다르다. 회의에 참석한 사람들을 긴장하게 만들고, 다 함께 발전하게 만든다. 미국 포드 자동차도 숱한 악성 회의에 시달렸다. 앨런 멀럴리가 CEO로 오면서 회의 문화를 대거 뜯어 고쳤다. 



“포드에서 멀럴리는 ‘하나된 포드(One Ford)’ 운동을 전개했다. … 멀럴리는 내부 경쟁을 피하면서 정직과 투명성을 요구했다. 그는 조직을 분열시키는 작은 회의가 너무 많음을 알게 되었다. 그는 그 회의들을 회사 수준에서 하나의 주간 회의인 ‘사업 계획 검토’ 회의로 대체했다. 그는 원래 주제에서 벗어난 토론, 비밀, 블랙베리 휴대폰 사용, 심지어 다른 사람을 비웃는 농담도 허용하지 않았다.”  


(책 <팀 오브 팀스>, 스탠리 맥크리스털 외 공저)



이런 조치들로 인해 업무 발목을 잡는 회의는 점차 줄어들었을 것이다. 진지하게 참여하며 결론을 도출하는 회의에 맛을 들이면 궤도를 이탈한 회의가 점점 견딜 수 없게 된다. 보다 더 회의의 질을 높이기 위한 조치도 필요하다. 조직 내에서 무언가 남다른 사람들은 이미 이런 역할을 하곤 한다. 회의 중 생산적 결론을 위해 악역을 담당한다.   



“’리더는 한 사람, 나머지 전원은 따르면 된다.’라는 사고방식이 남아 있는 조직에서는 사회자만 있으면 된다고 생각합니다. 그렇지만 원래 회의 기법은 회의 참가자 전원에게 있어야 합니다. 다각적인 토론을 하기 위한 대표적인 방법으로 누군가가 ‘악마’ 역할을 맡는 것입니다. 이는 개인적으로는 상대방의 의견에 찬성하더라도 일부러 “그건 아닌 것 같은데?” “이런 경우도 있지 않을까?”하는 식으로 반대 입장을 취해 모두 함께 깊이 생각해 볼 기회를 갖기 위한 방법입니다.” 


(책 <생산성 – 기업 제1의 존재 이유>, 이가 야스요 저)



혼자 시간을 까먹는 것은 그나마 죄가 덜하다. 여러 사람들이 모인 회의를 맹탕으로 만드는 행위는 기업 입장에서는 중죄다. 투명한 회의, 집중력 있는 회의, 결론을 도출하는 회의 그리고 여러 사람이 각자 역할(심지어 때로는 악마 역할까지)을 하는 회의가 중요한 이유다. 잘 하는 것들은 이미 그렇게 하고 있다.  






편집 | 사업기획팀 박예영



신시웨이 | 세상을 이롭게 하는 Global Software Company, 신시웨이

기술이야기/신시웨이 2018.08.08 17:42



신시웨이가 엑셈의 가족인 것은 누구나 알고 있는 사실이죠! 혹시라도 모르고 계셨다면, 이번 기회를 통해 아시면 됩니다 :)
신시웨이는 엑셈 뉴스레터에 종종 등장하곤 했는데요, 이제부터 쭈-욱 엑셈 뉴스레터에서 신시웨이의 소식을 만나실 수 있습니다!

신시웨이 이야기 그 첫 번째, 지금 바로 시작합니다.



신시웨이를 소개합니다. 

세상을 이롭게 하는 Global Software Company 신시웨이한국 오라클 출신의 DBMS 전문가들이 뜻을 모아 2005년 1월에 창립되었습니다.

DB 보안 전문 기업이며, 글로벌 수준의 기술력과 신뢰성을 갖춘 PETRA 제품 시리즈를 통해 완벽한 DB 보안 플랫폼을 제공합니다.



 1. 기술력

재직 인원의 대다수가 데이터베이스 및 암호화 전문기술을 보유한 전문 기술인력 중심의 조직을 구성하여 운영하고 있습니다. 

기술인력의 부서로는 기업부설연구소, 대전기술지원센터, 제주R&D센터로 나누어져 있으며, 그 안에서 다양한 기업 환경을 위한 최적의 데이터베이스 보안 솔루션을 제공합니다.

▶ PETRA (DB접근제어, 보안 전용 DBMS 사용, 완벽한 보안 구축, 효율적인 관리)

▶ PETRA SIGN (DB 권한 결재, DB 취급 사유 관리, 다양한 결재선 설정, DB 접근제어와 완벽 연동)

▶ PETRA CIPHER (DB 암호화, 컬럼 단위 암호화, 안전한 키 관리, DB 접근제어와 완벽 연동)

▶ PETRA CIPHER 파일암호화 옵션 (파일 암호화, 비정형 파일의 철저한 보안, 암호화 데이터 통합관리, DB접근제어와 완벽 연동)

중요 정보의 암호화 및 개인정보 유출 사고에 따른 처벌 강화로 데이터 보안의 중요성이 나날이 높아지고 있습니다. 당신의 소중한 데이터를 지킬 수 있는 현명한 방법, 앞서 소개 드린 신시웨이의 총 4가지 페트라 시리즈와 함께합니다.   



 2. 인간중심

신시웨이가 추구하는 중심은 사람입니다. 역사적으로 인간 중심을 가장 잘 표현한 단어가 홍익인간이었고, 단군신화에 나오는 신시는 단군이 세운 도시로써 홍익인간들이 모여 살았던 곳을 말하는데, 널리 세상을 이롭게 하는 소프트웨어를 제공하겠다는 포부라 할 수 있겠습니다. 내부적인 화합을 중요시 하고, 따뜻한 마음으로 동료를 배려하며 존중해주고, 책임감 있게 고객을 대하며, 항상 창의적인 생각을 하는 곳이 바로 신시웨이입니다. 

편안한 분위기 속에 밝은 표정으로 일하는 임직원을 보고 신시웨이에 일하고 싶다는 분들이 많은데, 이를 증명하듯 이직률이 낮습니다. IT업계에서는 한 회사에서 10년을 보내는 경우가 최근 들어 많이 어려운 상황이지만 신시웨이는 장기근속자가 매년 나오고 있습니다. 많은 사람들에게 좋은 직장의 기준으로 ‘얼마나 워라밸을 보장하는 곳 인가?’가 최우선 순위가 되었으며 신시웨이 또한 임금, 워라밸, 고용안정 등 세 가지 분야의 청년친화 강소기업으로 선정되었습니다.  

 

※ 워라밸이란?

업무 생활을 뜻하는 Work와 퇴근 후 직장 외 생활을 뜻하는 Life의 균형(Balance)을 의미!



3. 복지 좋은 회사

제주도로 휴가도 갈 겸, 몸도 편히 쉬면서 의미 있는 휴가가 되기 위해 제주 사택 또는 다양한 리조트를 운영하고 있습니다. 

그 외에도 복지혜택은 여러 가지가 있는데요, 매월 직원들의 생일파티 겸 상품권 증정, 입사 10년 차에게 황금열쇠가 주어집니다. 게릴라성으로 이벤트도 소소하게 준비하곤 합니다. 

볼링, 풋살, 계절스포츠, 스크린골프, 로망, 낚시동호회


생일파티 & 신시데이 (매월 14일에 열리는 신시웨이 이벤트)


취미활동 또는 친목도모를 위한 동호회비 지원, 웬만한 카페 부럽지 않은 카페테리아와 국내 최초라고 자부하는 온돌 휴게실을 운영 중 입니다. 장시간 앉아서 근무하는 직원, 외근이 잦은 직원들을 위해 조금이나마 편히 쉴 수 있는 공간을 만들어 주었습니다.   



가진 기술을 이용해 데이터를 안전하게 보호하고 활용하면서, 사람들의 생활을 안전하고 편리하게 만들어 나가는 신시웨이가 되겠습니다. 


엑셈 만큼이나 직원들을 생각하는 마음이 느껴지는 신시웨이였습니다.
앞으로 다방면에서 엑셈과 신시웨이가 함께 만들어낼 시너지가 너무나도 기대됩니다!
엑셈, 신시웨이 모두 파이팅 :)




편집 | 사업기획팀 박예영




  • 류성민 2018.09.04 13:25 신고 ADDR 수정/삭제 답글

    좋네요. 편안한 '기술이야기' 재밌어요 ^^

척척박사 윤박사가 들려주는 AI | 특별편, 지능형 관제 솔루션의 방향과 비전


요약(Abstraction)

 4차 산업혁명 시대에서 인공지능 역할은 기반 산업들의 성공적인 발전을 위해 자동화된 지능형 시스템으로 진화하여 디지털 트랜스포메이션(Digital Transformation)으로 발전시키는 것이다. 디지털 트랜스포메이션으로 진화하기 위해 기존 관제 시스템은 다양한 센서나 에이전트로부터 디지털화된 데이터를 확보하고, 정밀한 의사결정을 지원하기 위해 인공지능 기반의 이상증상 탐지 및 예측 지원 학습 모델을 구성하는 것이다. 의사결정 지원 방법은 논리적 의사결정과 비즈니스적 의사결정으로 구분할 수 있다. 논리적 의사결정은 시스템의 정보를 통해 시스템의 장애 진단과 해결을 위한 정보 제공으로 자동화된 의사결정 수행을 지원한다. 비즈니스적 의사결정은 관리자 또는 경영자의 의사결정을 효과적으로 지원하기 위해 효율적인 판단을 위한 지표 데이터를 예보 형태로 제공하는 구조이다. 그렇기 때문에 관제 시스템에서 인공지능 도입은 비즈니스적 의사결정보다는 논리적 의사결정 중심으로 진행하고 있다. 따라서 본 고에서는 이러한 기능을 갖추기 위한 지능형 관제 솔루션이 디지털 트랜스포메이션으로 진화하기 위한 방향과 비전을 살펴보고자 한다.


1. 서론

 최근, 4차 산업혁명이라는 키워드 아래 다양한 산업분야에서 인공지능 기반의 자동화된 의사결정을 지원하는 지능형 관제 솔루션을 구성하고 있다. 구글은 2016년 데이터센터에 머신러닝 기반의 딥마인드 시스템을 이용하여 서버 구동 방법과 전력, 냉각 장비의 운영을 조정함으로써 에너지 절감 효과를 40% 정도 절감하였다. 이를 통해 수천만 달러의 비용을 절감할 수 있도록 하였다. 또한 벨라트릭스 소프트웨어의 알렉스 로비오 사장은 데이터 센터의 지능화를 위한 노력과 사례를 축적하고 네트워크와 같이 능동적으로 대처할 수 있는 시스템의 머신러닝 도입을 주장하고 있다. 이러한 방향은 지능형 관제 시스템이 디지털 트랜스포메이션 구조로의 전환을 전제로 하고 있다. 그리고 다양한 센서에서 발생된 데이터를 어떻게 확보할 것인지와 물리적 환경에 대한 조치보다는 소프트웨어적 환경에 대한 조치 방법의 직시를 지능형 관제 시스템의 방향으로 제시하고 있다[1].

 인공지능 모델을 통한 데이터 센터 운영은 대용량 데이터 기반의 분석으로 과거의 패턴을 추출하여 소프트웨어의 장애나 고장 및 논리적 오류에 대한 확장 패턴을 학습함으로써 최적화된 데이터 센터 운영이 가능한 모델을 수립할 수 있다. IBM 분석 개발 담당 부사장인 디네시 니말은 미래 데이터 센터의 자율적 운영을 위해 탈중앙집중형(Decentralised) 클라우드 환경에서 인공지능을 적용한 이상 징후 감지 기능을 차세대 데이터 센터의 필수 요소로 언급하고 있다. 이를 위해 가용 데이터의 양, 품질 그리고 속성등에 대한 데이터의 표준화와 거버넌스 필요성도 함께 제시하고 있다[1].

 따라서 본 고에서는 4차 산업혁명에서 요구하는 지능형 관제 솔루션의 방향을 살펴보고, 인공지능의 역할과 도전 방향을 재조명하고자 한다. 그리고 도전 방향에 필요한 기반 기술을 소개하고 도전 중에 발생할 수 있는 이슈들을 간략히 소개한다. 본 고의 구성은 2장에서 지능형 관제를 이해하기 위해 데이터의 특징과 구조를 설명한다. 3장에서는 지능형 관제 솔루션들이 가지고 있는 기술과 특징을 기술하고 지능형 관제 솔루션이 나아가야 할 방향과 비전을 기술한다. 마지막으로 지능형 관제 솔루션의 방향에 대한 고찰과 제언으로 마무리 한다.


2. 데이터 전환과 이해

우리는 10년 전 정보화의 물결인 IT 홍수를 겪으면서 기하급수적으로 증가하는 디지털 데이터의 양을 확인하고 홍수속에서 정보를 찾기 위한 노력을 거듭해 왔다. 정보를 찾기 위해 데이터 흐름을 만들고, 그 흐름 속에서 많은 정보와 지식을 생산하는 체계를 지속적으로 구축하였다. 현재의 정보처리 기술들은 정보화 물결 속에서 하나 둘 생겨난 문제들을 해결하고자 하는 데이터 처리 방법론 속에서 등장한 기술들이며, 이러한 기술들을 이용하여 데이터 물결을 지배하려는 많은 노력들도 함께 진행되었다. 이러한 노력으로 이루어진 4차 산업혁명은 디지털 사회로 진화되는 사회적 물결 속에서 데이터 기반의 과학적 의사결정을 처리하는 자동화 물결을 먼저 확보하기 위해 인공지능 기술들이 재조명되고 있다.


<그림 1> 사회를 변화시킨 각 단계별 물결 정보[2]

* 참조문헌 : 의사결정의 자동화 시대, 필수 요건은 데이터(http://www.bloter.net/archives/284744)


 과학적 의사결정을 효과적으로 처리하기 위해 생산되는 데이터는 사회적 물결에 따라 변화되어 왔다. 사회적 물결의 흐름 속에서 생산되는 데이터는 [그림 1]과 같이 시대별로 생산되는 지식 데이터의 구조적 차이가 있다. 즉, 아날로그 형태의 데이터에서 디지털 형태로 변화되면서 연속적인 표현에서 이산적인 표현으로 변경되고 있다. 불과 10여 년 전의 데이터인 아날로그 데이터는 신호의 연속성을 가지고 물리량으로 나타낸다. 예를 들면, 빛의 밝기, 소리의 높낮이, 크기, 바람의 세기 등이 대표적이며, 이를 사람이 이해하고 직관적 의사결정을 할 수 있는 도구로 속도계, 온도계, 녹음기나 음반과 같은 것들을 이용하고 있다. 디지털 시대의 데이터는 ‘0’과 ‘1’의 논리적 구조로 표현되며, 이산적 수치를 이용하여 데이터를 처리하고 분석하여 과학적 의사결정을 할 수 있도록 시각화하고 있다. 하지만 연속적인 아날로그 데이터를 디지털 데이터로 변환하는 과정에서 샘플링으로 데이터를 변환하기 때문에 데이터의 품질이 떨어지거나 왜곡되는 특징을 가지고 있다. 또한 최근에는 양자 데이터의 등장으로 디지털 데이터는 확장된 새로운 데이터 형태의 표현과 해석이 추가되고 있다. 이렇듯 데이터 표현은 사회적 흐름이 변화되면서 데이터가 의미하는 특징도 변화되고 있기 때문에 의사결정을 위한 데이터의 특징 이해와 해석을 표준화하는 것이 필요하다. 

 모든 데이터는 다양한 장치와 환경으로부터 아날로그 형태 및 디지털 형태로 생산되고 있으며, 다양한 방법으로 수집되거나 변환되어 저장되고 있다. 그리고 데이터를 해석하기 위해서는 데이터를 발생시킨 장치의 특징과 통합, 정제의 방법에 따라 어떤 해석을 할 수 있는가에 대한 판단이 중요하다. 예를 들면, 사람의 몸에서 발생되는 이상 신호는 외부의 자극 또는 내부의 이상 신호가 신경세포를 통해 뇌에 전달되어 신호 해석과 함께 이상 판단을 진행한다. 이와 같이 시스템에서 의사결정을 지원하기 위해서는 전체 데이터 중에서 이상 데이터의 특징을 추출하고 조건에 맞는 패턴을 찾아 강화시켜 이상정도를 의사결정하기 위한 정보로 재가공해야 한다. 그리고, 가공된 정보는 이상정도의 신호 세기에 따라 의사결정과 제어가 각각 달라질 수 있다. 즉, 수집된 데이터 그룹에는 각각의 상황을 판단하고 의사결정을 하기 위한 데이터가 존재하며 이 데이터의 특징을 얼마나 잘 추출하고 가공하는지가 중요하다. 그리고, 각각의 데이터 해석 높낮이에 따라 의사결정을 달리하고 제어할 수 있는 지식베이스를 구성하는 것이다. 이것은 기계학습에서 데이터를 분류하기 위해 레이블된 데이터만을 학습할 경우, 해당 조건만을 판단하기 때문에 단편적인 의사결정만을 시도하는 문제를 가지고 있다. 그리고 레이블된 데이터가 아닌 전체 데이터를 이용하여 학습할 경우에는 정확한 의사결정과 해석 판단을 할 수 없기 때문에 항상 의사결정의 오류를 포함하고 있을 수 있다. 그렇기 때문에 어떠한 기계학습 방법을 적용하든지 모든 데이터에 대한 학습과 함께 레이블 데이터를 생성하고 관리하기 위한 지식베이스 구축이 필요하다. 그리고 지능형 관제를 위해 데이터의 특징을 먼저 이해하고 신호 강도가 높은 특징 데이터를 중심으로 데이터 스팩트럼을 측정하고 학습 모델을 훈련시키는 것이 필요하다. 데이터 스텍트럼을 측정하기 위해서는 인공지능을 포함하여 다양한 학문에 기초하여 데이터의 특징과 해석을 많이 다루어 본 데이터 사이언티스의 역할이 중요하다.


3. 지능형 관제 솔루션 구조 및 방향

 관제 솔루션(EMS : Enterprise Management System)은 일반적으로 서버, 네트워크, DBMS, 부대설비 등과 같은 다양한 인프라를 하나의 플랫폼에서 통합 관리하거나 차량, 범죄, 방재 등과 같은 사회 안전망을 관리하는 플랫폼으로 정의되고 있다. 관제 솔루션의 범위는 활용 목적에 따라 다양한 영역을 포함하고 있으며, 업무 범위에 따라 관제의 영역도 함께 정의되고 있다. 예를 들면, 항공기의 이착륙과 운항을 위한 항공관제, 정보 시스템의 운영과 관리를 위한 네트워크 및 시스템 관제, 건물의 이상이나 재난을 예방하기 위한 건물 및 방재 관제, 전력 상태를 관리하기 위한 전력 관제, 사회적 관계망이나 도시 범죄, 교통 등을 관리하는 도시환경 및 교통보안 관제 등 다양한 범위에서 활용되고 있다. 각각의 관제 시스템은 유사한 구조를 가지고 있지만 서로 다른 제품으로 플랫폼이 구성하고 있기 때문에 제조사에 대한 의존성이 매우 높다. 이는 제조사마다 데이터의 정의와 구조가 서로 다르고 표준화되지 않은 포맷(구조)를 사용하고 있다는 반증이기도 하다. 또한 서로 다른 제품을 사용하기 때문에 장치의 제어 신호가 다른 상태로, 해당 제조사와 연관된 소프트웨어만을 사용해야 하는 불편함도 있다. 그렇기 때문에 데이터 중심의 의사결정을 수행하는 인공지능을 도입하기 위한 접근이 제한적이고 시스템 제조사에서 제작한 인공지능 모델에 의존할 수 밖에 없는 것이 현실이다.  

 관제 솔루션의 구조는 앞에서 언급했듯이 활용 범위에 따라 달라지지만 본 고에서는 정부의 통합 관제 시스템을 이용하여 구조를 살펴보고자 한다. 정부에서 운영하는 대표적인 통합관제 시스템 구조는 [그림 2]와 같다. 물리적 환경은 통합운영 소프트웨어를 통해 전체 상황을 관리하는 통제센터를 중심으로, 영상 장비를 관리하는 영상설비 시스템, 네트워크와 통신을 관리하는 네트워크 시스템, 그리고 부대설비를 관리하고 내부와 외부를 연결하는 관리 시스템 등으로 구성된다. 중앙센터의 통합운영 소프트웨어는 단위 시스템에서 수집된 데이터를 실시간 수준에서 분석하여 그 결과를 출력하도록 한다. 단위 시스템에서 실시간 분석은 지능형 통합 관제를 위해 통계 모형, 인공지능 모형 등을 적용할 수 있으며, 데이터의 특징과 분석 목적에 따라 혼용되어 사용하고 있다.


<그림 2> 통합 관제 시스템의 구조 예

* 참조 : 블로그, http://blog.daum.net/visionetware/10 


 지능형 통합 관제에서 사용되고 있는 인공지능 모형은 규칙기반 모델(Model of Rule-based)과 기계학습 기반의 비전인식 모델(Model of Vision Mining)이 가장 많이 적용되고 있다. 최근에는 딥러닝을 이용한 비전인식과 추적 기술을 도입하거나 준비하고 있다. 이에 비해 시스템 에이전트나 센서에서 수집된 데이터의 이상신호 분석은 미진한 상태이며, 오류나 장애를 탐지하는 목적보다는 통계적 분석을 통해 장비 최적화나 배치 지역 선정, 교체 시기 등과 같은 관리 최적화 분석을 우선적으로 하고 있다. 그 이유는 단위 시스템에서 분석된 결과의 성능이 기계학습으로 분석하는 것이 통계 확률 또는 규칙기반으로 분석하는 것보다 많은 차이를 보이고 있지 않기 때문이다. 그래서 관리자나 운영자는 관제 시스템을 기존의 방법으로 유지하고 운영하는 것을 선호하고 있다. 이러한 현상은 신경망의 입력값으로 디지털 신호 데이터를 이미지로 변환하여 분석하고 있기 때문이다. 이 변환 과정은 정밀한 소수점 데이터를 이미지상의 하나의 점으로 표현하면서 소수점 데이터가 절삭되거나 감소되는 문제를 가지고 있다. 감소된 파형을 서로 매핑하면서 비교하기 때문에 통계 확률이나 규칙기반 모델보다 높은 성능을 보여주지 못하고 있다. 특히, 딥러닝은 아직까지 점과 같은 아주 작은 이미지를 해석하는 것이 어려운 것이 현실이다. 그리고, 특별한 장애는 2~3년에 한 번 정도 발생되는 경우가 있기 때문에 전체 데이터를 장기간 관리할 수 있는 빅데이터 모형을 기본적으로 이해하고 있어야 한다. 또한 기계학습의 입력값으로 정밀한 신호 데이터를 제공하고 통합된 데이터간의 연관성을 전처리하여 제공하는 데이터 모델링 과정도 해결해야 한다.

 이와 같은 상황에서 지능형 관제 시스템의 대표 주자인 IBM은 마드리드에서 2014년도 스마트 시티 프로젝트인 MiNT[5]를 진행하면서 데이터 통합 관리와 운영 모델을 확립하였다. IBM은 MiNT 프로젝트에서 IBM Intelligent Operations과 Maximo를 이용하여 구축하였으며, 서비스 구성을 위해 [그림 3]과 같은 개념으로 도입하였다. 다면적 상황 인식을 위해 CCTV와 시민의 제보, 스마트폰 위치 정보등과 같은 데이터를 실시간으로 수집하고 과거 도시 데이터 기반의 예측 분석을 구성하였다. 또한 스마트 도시 서비스 및 시민들과 상호작용을 통한 자원 조정 및 서비스 품질 향상을 목표로 진행하였다. MiNT 프로젝트는 과거 도시 데이터와 현재 수집된 데이터를 이용하여 통계 확률 기반의 데이터 마이닝 모델, 기계학습 기반의 새로운 패턴 탐지하도록 하였다. 이 과정에서 IBM은 데이터 생산과 통합을 통해 도시의 기능적 요소들을 분석하였으며 통합 데이터에서 새로운 패턴의 발견과 검증 가능성을 확인하였다.


<그림 3> IBM MiNT Project[2]

* 참조문헌 : City of Madrid Implements Large Smarter Cities Environmental Analytics Project


 이와 같이 지능형 관제 시스템은 단위 시스템에서 발생되는 데이터만을 분석하고 판단하기 보다는 통합된 전체 데이터를 이용한 분석을 추구하고 있으며, 새로운 패턴의 발견 가능성을 검증하고 있다. 즉, 데이터가 가지고 있는 단순한 의미들을 하나로 통합했을 때 새로운 의미를 가진다는 기본 원리를 재조명한 것이다. 그리고 딥러닝으로 구성된 시스템이 훌륭할 수 있지만 통합된 데이터의 특징을 반영하고 검증하기에는 현실감이 부족하다. 그렇기 때문에 소프트웨어 테스트 방법 중에서 자주 사용되는 A/B 테스트 시나리오를 설계하고 지능형 관제 솔루션의 분석용 소프트웨어 개발을 진행하는 것이 좋을 것이다. 기존의 통계 방식의 분석 소프트웨어가 존재한다면, 해당 기능 중 일부를 기계학습 모델로 전환하고이전 분석 모델과 비교하여 어느 부분에서 우수한지를 검증하고 우수성을 증명하는 것이 필요하다.


4. 제언 및 맺음말

 이제까지 지능형 관제 시스템에 대한 개괄적인 내용과 지능형 분석 소프트웨어의 방향을 설명하였다. 최근에는 스마트 어플리케이션 서비스와 같이 연관되면서 지능형 관제 시스템의 기능도 확장되고 있다. 

 또한 IoT 기술의 단계적 적용으로 데이터의 특징이나 인식 범위도 넓어지고 있어서 지능형 모델을 이용한 분석 범위도 증가하고 있다. 이와 같이 확장되고 있는 지능형 관제 시스템의 기능들은 자동화에 맞춰 있다. 영역별로 살펴보면, 데이터 표준화와 통합을 위한 자동화 기능, 통합된 데이터에서 실시간으로 특징을 추출하는 기능, 특징의 연관성과 확장성을 판단하는 기능, 통계 확률 모델과 인공지능 모델의 분석결과에 대한 연계 분석 기능, 분석에 따른 제어 자동화 기능 등이 필요하다. 이러한 기능들은 인공지능 개발자의 역량에 따라 단계적인 접근하고 시도하는 것이 좋으며, 이를 검증하기 위한 단계적 절차도 마련되어야 할 것이다. 특히 성능 검증 절차는 앞에서 언급한 소프트웨어 성능 테스트 모델을 적용할 수 있는 모델과 모델간의 성능 비교를 권고한다. 이전 모델이 있다면 성능 비교에 더욱더 좋을 것이다. 그리고 인공지능 개발자는 기존 시스템이나 소프트웨어 개발보다 인공지능 모델 개발이 상당한 시간과 노력이 요구되는 것을 알고 있다. 그렇기 때문에 기업에서 요구하는 제품을 만들기 위해서는 단계적으로 접근하기 위한 기능 설계와 구성을 위한 자신만의 점검 항목을 가지고 있어야 할 것이다. 그래서 필자는 지능형 모델을 구성하기 위해 스스로 점검하고 있는 목록 중의 일부를 기록하면서 정리하고자 한다. 


 - [Data Governance] 데이터의 이해도는 완벽한가?

 - [Data Governance] 데이터의 변환과 프로세스는 어떻게 구성하였는가?

 - [Data Governance] 다른 시스템을 위해 데이터 표준화는 갖추어 놓았는가?

 - [Intelligence Model] 인공지능 모델간의 협업 체계를 구성할 수 있는가? 

 - [Intelligence Model] 제품의 성능을 비교하기 위한 검증 모델은 수립되어 있는가?

 - [Intelligence Model] 인공지능 모델을 변경하는 것이 아닌 진화할 수 있는 모델인가?


 이밖에도 지능형 시스템을 구축하기 위해서는 위에서 언급한 내용보다 많은 검증 사항들이 숨겨져 있다. 이를 위해 데이터 사이언티스 중심의 인공지능 모델링 개발이 이루어져야 할 것이다. 인공지능은 황금알을 낳는 거위가 될 수 있지만 거위를 배를 가르는 순간 황금알은 사라질 것이다.



[참고문헌]

[1] 효성인포메이션시스템, “자율운영 데이터센터가 온다” AI와 머신러닝 기반의 데이터센터 운영 효율화 – IDG Tech Focus, IDG TechLibary, 2018.07.12.

[2] 블로터, “의사결정의 자동화 시대, 필수 요건은 데이터,” 블로터(Bloter), 2017.07.11.

[3] 위키백과, “제3의 물결 (토플러),” https://ko.wikipedia.org/wiki/제3의_물결_(토플러)

[4] Mohamed A. Ahmed, Chul-Hwan Kim, “Communication Architecture for Grid Integration of Cyber Physical Wind Energy Systems,”, Applied Sciences, Vol.7, No.10, 1034, 2017.

[5] IBM,  “City of Madrid Implements Large Smarter Cities Environmental Analytics Project,” https://www-03.ibm.com/press/us/en/pressrelease/44328.wss





편집 | 사업기획팀 박예영

IT 만평 | AI가 바꾸는 미래, 성형 편

고평석의 '잘 하는 것들의 비밀' | 여섯 번째, 자빠졌을 때 일어날 수 있는가?



  영웅 들은 사람들을 휘어잡는다. 칭기즈칸은 겨우 10여 명의 인원만 남은 최악의 상황에서 몽골 제국을 건설했다. 윈스턴 처칠은 독일군의 맹폭 속에서도 두둑한 배짱을 담은 연설로 영국인들을 하나로 모은 후 2차 세계대전을 승리로 이끌었다. 스티브 잡스도 매번 신제품 발표때마다 전세계 수백 만명의 IT업계 종사자들의 마음을 뒤흔들었다. 보통 사람들의 고민은 한결 같다.



“나는 왜 저들처럼 강하지 못하고 나약할까?" 



힘이 강하고 항상 승승장구해서 영웅이라 불릴까? 이들은 오히려 많은 실패를 거듭했다. 그것을 딛고 일어서는 회복력이 남달라서 영웅이 되었다. 강력한 힘보다는 탄력적인 회복력이 우선이다. 특히 소프트웨어 기업과 업계 종사자들에게는 필요한 덕목이다. 소프트웨어 기업들은 실패 비용이 상대적으로 적다. 실패에서 배우고 바로 다음 단계로 넘어가는 게 중요하다. 그 대표적인 기업과 기업인들이 바로 유튜브와 그 창업자들이다.


“초창기에 유튜브는 ‘튠 인 훅 업(Tune In Hook Up)’이라는 영상 데이트 사이트였다. 이 사이트는 실패했지만 아카이브(Archive.org)에 가보면 아직 그 유령이 살고 있다. 초창기 유튜브닷컴을 캡처한 것을 보면 ‘나는 18세에서 99세 사이의 남성/여성/모두를 찾는 남성/여성입니다.’라는 메뉴도 있다.” 


(책 ‘더 빨라진 미래의 생존 원칙 나인(9)’, 조이 이토, 제프 하우 저)



하지만 이 영상 데이터 서비스는 인기가 없었다. 이 때 유튜브 창업자들은 인터넷에 필요한 것이 영상 콘텐츠를 쉽게 공유할 방법임을 금세 깨닫게 된다. 널리 회자되던 몇몇 동영상들을 아무리 찾으려고 해도 검색할 수 없는 경험을 했기 때문이다.



“채드 헐리와 스티브 첸, 자베드 카림은 2005년 2월 14일 유튜브닷컴을 등록하고 그해 4월 사이트를 출범시켰다. 카림은 사이트에 업로드한 첫 번째 영상에 출연하는데, 23초짜리 이 영상에서 그는 샌디에이고 동물원의 코끼리 울타리 앞에 서 있다. 2006년 10월 세 사람은 자신들의 작품을 17억 달러에 구글로 팔았다.” 


(책 ‘더 빨라진 미래의 생존 원칙 나인(9)’, 조이 이토, 제프 하우 저)



유튜브 창업자들이 견고함과 강력함을 고집했다면, 오히려 별 볼일 없는 영상 데이트 서비스 운영자에 그쳤을 것이다. 이들은 회복력이 상당했다. 잃을 것이 없다고 생각했다. 시대의 바람을 반영했다. 이런 회복력은 평범한 기업을 위대한 기업으로, 보통의 사람을 영웅으로 변신시켜 준다. 


무언가 지금 어려움을 겪고 있다면, 나약함을 고민하거나 강력하기를 바라지 말고 회복할 방안을 고민해 보면 어떨까?







편집 | 사업기획팀 박예영

AI전문가, 강 인규 이사님이 들려주는 AI 이야기 - 시스템 관제 데이터 인공지능 분석 (시계열 분석)

 

엑셈 강남 인공지능 연구소에서는 2018년 초부터 시스템 관제 데이터에 대한 인공지능 분석과 관련된 작업을 수행하고 있다.

 

 


엑셈 강남AI연구소의 일차적인 목표는 엑셈이 가지고 있는 모니터링 솔루션(인터맥스/맥스게이지)에 인공지능 분석기능을 결합하여,


고객에게 전보다 자동화되어 편리하게 시스템을 통합 관제할 수 있는 기능을 제공하는 것이다.


 

이에 다음과 같은 여섯가지 기능을 목표로 작업을 진행하고 있습니다.

                                                                                                                                                                             


[1] 부하 예측 (Workload Forecast)

 

[2] 비정상 탐지 (Anomaly Detection)

 

[3] 장애 예측 (Failure Forecast)

 

[4] 부하 패턴 분석 (Workload Pattern Analysis)

 

[5] 인과 관계 분석 (Causality Analysis)

 

[6] 근본 원인 분석 (Root Cause Analysis)

                                                                                                                                                                             


 

오늘은 이 중에서 비정상 탐지 기능 구현을 위한 기반 기술인 시계열 분석에 대한 내용을 공유하려고 한다.

 

 

 

【시계열 분석이란 ?】 

 

시간의 흐름에 따라 분석 대상 데이터가 어떤 형태로 변화하는지를 분석하는 것이다.

 

 

 

분석 대상 데이터가 경향성(trend), 주기성(seasonality)를 나타내는지 확인하고 만약 데이터에 경향성이나 주기성이 있다면

이러한 특성을 이용하여 미래의 값까지 예측해 볼 수 있다.

 


우리가 사용하는 시스템 관제 데이터의 경우, 대부분 하루를 주기로 데이터가 주기성을 나타내는 경우가 많고, 주말 혹은 평일에 따라 서로 다른 양상을 보이기 때문에 이런 시계열 분석을 이용하면 다음날의 데이터 추세를 예측할 수 있고, 확률분포에 기반하여 실제 데이터가 예측값과 비교하여 차이가 많이 나는 경우 이를 비정상으로 보고 사용자에게 알람을 줄 수 있을 것이다.

 

 


본 문서에서는 Python을 이용하여 실제로 시계열 데이터를 분석하는 것을 설명할 예정이다. 특정 시스템(DB나 WAS)의 모니터링 데이터 대신,

최근 사람들의 관심을 많이 받고 있는 비트코인의 과거 가격 데이터를 분석하여 미래의 비트코인 가격을 예측하는 사례를 들어 설명할 예정이다.

 

 


단, 비트코인에 대한 가격 예측의 경우, 모델을 구성하기 위한 데이터 주기성이라든지 트랜드 등은 모두 글의 작성자가 임의로 선택한 값이기 때문에, 독자가 여기있는 내용을 기반으로 비트코인에 투자하는 것을 권하지 않고, 글의 작성자는 비트코인 투자에 대한 책임을 지지 않는 것을 명확히 해둔다.

 


 

우선 비트코인에 대한 가격 예측을 하기 위해서는 과거 데이터가 필요한데, 다행히 CoinGecko라는 사이트에서

2013년 4월부터의 비트코인의 USD 가격 데이터를 csv 형태로 다운받을 수 있다.

 

 


[ 데이터 출처 ]

 


비트코인 시세 차트 정보 출처 

 

https://www.coingecko.com/ko/

 

BTC-USD 데이터 (2013-04-28 ~ 2018-06-07) - btc-usd-max.csv


 

 

아래부터는 Python 코드를 직접 사용하여 시계열 분석하는 과정을 설명할 예정인데, 코드를 보기 어려운 경우에는 코드를 보지 않고 글만 읽더라도 시계열 데이터에 대한 분석을 어떻게 하는지에 대해 이해할 수 있을 것이다. 아래는 Python으로 시계열 분석을 하기 위해 필요한 라이브러리를 Import 하는 코드이다.

 

 

 


위에서 내려받은 데이터에 대해 우선 시각적으로 이해하기 위해 차트를 그려서 확인하면 다음과 같다.

단, 분석은 편의상 2017년 1월 1일부터 하기 위해  데이터의 앞부분을 잘라낸다.

 

 

 

 

 

[ 데이터 차트 (2017년 1월 1일 ~ 2018년 6월 7일) ]


 

 

 

비트코인 가격 데이터를 차트로 그리고 보니, 데이터 값이 지수 스케일로 증가를 하는 모양새이다.

분석의 편의를 위해 로그 스케일로 변환해보자.


 

 

 

 

[ 로그 스케일 (2017년 1월 1일 ~ 2018년 6월 7일) ]

 

 

 

 

로그 스케일의 데이터 차트를 보니, 데이터에 추세와 주기성이 어느정도 보이는 것 같다.

이에 대해 확인을 위해 STL Decomposition(Seasonal Trend Decomposition using Loses) 을 수행해본다.

 

 

 

 

[ STL  Decomposition ]

 

 

 

 

 

STL Decomposition은 시계열 데이터를 Trend와 Seasonal Component로 나누고 나머지를 Residual Component로 구분해주는 방식이다.

Decomposition을 수행할 때의 주기는 사용자의 입력을 받게 되어 있는데, 이번 분석에서는 작성자 임의로 63일을 주기로 사용했다. 

 


분석된 결과를 확인하면, Trend 자체는 2017년 12월 16일을 기점으로 최고점을 찍고 그 뒤로 완만한 하향세를 그리는 추세이고,

일부 주기성을 갖고 상승과 하강을 반복하는 모양을 나타내고 있다.  

 

 

이제, 비트코인 가격에 대한 추세를 확인했으니, ARIMA를 이용한 분석을 수행하도록 한다.

 

 

 

 

ARIMA는 Autoregressive Integrated Moving Average의 약자로, 1970년에 George Box와 Gwilym Jenkins가 개발한 자기회귀와 이동평균을 고려하는 시계열 분석 모형이다. (Box Jenkins 모형이라고도 한다. 여기서 Integrated는 차분을 이용하는 시계열 모형을 의미한다.)

 

 

ARIMA를 분석하기 위해서는 분석에 필요한 모형 파리미터를 결정해야 하는데, 분석을 많이 해보지 않은 사용자가 직관적으로 모형 파라미터 값을 결정하기는 힘들기 때문에, 아래에서는 여러가지 파라미터 값을 적용해서 계산후 가장 적합한 파라미터를 찾도록 한다.

 


 

 

 

위 코드 수행한 결과, 가장 AIC 값이 가장 작게 나오는 파라미터는 ARIMA(0, 0, 1)x(1, 0, 0, 63)으로 확인되었다.

여기서 AIC(Akaike Information Critera)이란 통계 모델이 얼마나 데이터에 잘 맞는지 그리고 얼마나 모델이 단순한지에 대한 평가 지표이다.

 

 


[ ARIMA 파라미터 찾기 ]

 

 

                                                                                                                                                                             

 

* ARIMA(0, 0, 0)x(0, 0, 0, 63) - AIC:2773.42309289084

* ARIMA(0, 0, 0)x(0, 0, 1, 63) - AIC:1920.0592765923088

* ARIMA(0, 0, 0)x(0, 1, 0, 63) - AIC:670.7812669178603

* ARIMA(0, 0, 0)x(0, 1, 1, 63) - AIC:625.4908107669571

* ARIMA(0, 0, 0)x(1, 0, 0, 63) - AIC:527.7086760864255

* ARIMA(0, 0, 0)x(1, 0, 1, 63) - AIC:460.57780794082373

* ARIMA(0, 0, 0)x(1, 1, 0, 63) - AIC:634.0389755642134

* ARIMA(0, 0, 0)x(1, 1, 1, 63) - AIC:627.4901156865175

* ARIMA(0, 0, 1)x(0, 0, 0, 63) - AIC:2059.139083871266

* ARIMA(0, 0, 1)x(0, 0, 1, 63) - AIC:1306.301430340262

* ARIMA(0, 0, 1)x(0, 1, 0, 63) - AIC:125.37137227818316

* ARIMA(0, 0, 1)x(0, 1, 1, 63) - AIC:156.5012219110579

* ARIMA(0, 0, 1)x(1, 0, 0, 63) - AIC:-0.007702231691581574

* ARIMA(0, 0, 1)x(1, 0, 1, 63) - AIC:-21.342298764273067

                                                                                                                                                                             

 

 

결정된 파라미터에 대해 ARIMA 모델을 생성하고 모델에 대한 간단한 진단 차트를 표시하면 다음과 같다.


 

 

[ Diagnostic ]

 

 

 

 

 

위에서 얻은 모델을 가지고 4월 26일부터의 비트코인 가격에 대한 예측은 다음과 같이 수행한다.

아래 차트는 4월 26일부터 최근 날짜까지의 실제 비트코인 가격과 예측 가격을 같이 그린 차트이다.


 

 

 

 

[ Dynamic Prediction ]

 

 

 

 

위의 그래프에서 2018년 1월 1일부터의 데이터를 확대해서 표시하면 다음과 같다.

 

 

 

 

[ Dynamic Prediction (Zoom) ]

 

 

 

 

본 글에서는 시계열 데이터를 분석하는 방법(STL Decomposition과 ARIMA)을 적용하여 비트코인 가격에 대한 예측을 하는 예제를 알아보았다.

약 한달간의 비트코인 가격에 대한 예측을 한 결과 어느정도 추세를 반영하여 실제 가격 그래프와 유사한 추세를 갖는 결과를 얻을 수 있었다. 

 

 

하지만, 이 분석에는 비트코인 가격이 자기회귀와 이동평균을 따라서 변동될 것이라는 가정비트코인 가격이 어느정도 주기성을 가지고 움직일 것이라는 가정하에 위와 같은 결과가 나온 것이기 때문에, 위 분석 내용을 근거로 실제로 비트코인에 투자하는 일은 없기를 바란다.


 

이번 글에서는 시계열 분석을 하는 한가지 사례로 대중적인 관심을 얻고 있는 비트코인의 가격에 대한 예측을 해본 것이고, 실제로는 엑셈 강남 인공지능 연구소에서는 아래 그림과 같이 어느 정도의 정확한 주기를 가지고 있는 시스템의 모니터링 데이터에 대한 시계열 분석 업무를 진행하고 있다.

 

 

 

 

 

 

강인규 이사님께서 이번 뉴스레터에서 "전문가 기술기고" 시스템 관제 데이터 인공지능 분석(시계열 분석)에 관하여 작성해주셨습니다.

 

바쁘신 업무 중 시간을 내어 기고문을 작성해주셔서 감사의 말씀 드립니다.

 

 

 

 

글 편집| 글로벌마케팅팀 캉 위에, 함승민

사진 편집| 디자인기획팀 김보명

 

고평석의 '잘 하는 것들의 비밀' | 다섯 번째, 많은 이들 앞에서 설득할 수 있는가?


 
 여러 
사람 앞에서 이야기를 하는 것은 떨리는 일이다. 자신의 이야기를 듣는 사람이 많을수록 긴장감은 더욱 올라간다. 똑 같은 내용을 전달하더라도 1명 앞에서 말하는 것과 100명 앞에서 말하는 것은 마음가짐이 달라진다. 심지어 대중 앞에서 연설하는 것은 죽음의 공포보다 강렬하다는 여론 조사 결과까지 있을 정도다. 



“2001년 갤럽조사 설문 중에서 지상 최대의 두려움을 열거하라는 문항에 대해 미국인 40퍼센트가 대중 앞에서 말하는 것이 최대의 두려움이라고 답했다. 이 수치는 뱀을 무서워한다고 대답한 51퍼센트에 이어 두 번째로 높은 것이었다. 2005년 조사에서도 비슷한 결과가 나왔다. 응답자 중에서 42퍼센트가 대중연설이라는 생각만으로도 두려움을 느꼈다. 반면 죽음을 두려워한 사람은 28퍼센트에 불과했다.”


(책 <스피치의 정석>, 스테판 루카스 저, 교보문고 간)



하지만 대중연설에 능한 사람조차 이런 불안감을 느낀다. 그들이 멋진 연설, 스피치로 사람들 마음을 들었다 놓았다 하는 동안 심장이 콩닥콩닥 뛰는 중이다. 명연설가로 손 꼽히는 에이브러험 링컨, 윈스턴 처칠 등이 무대공포증이 있었던 인물의 대표적 예다. 



“기업 이사 81퍼센트가 대중연설이야말로 가장 신경이 곤두서는 경험이었다고 말했다. 코미디언 제리 사인펠트의 다음 농담에는 어느 정도 진실이 담겨 있다. 우리 대부분은 만약 선택할 수만 있다면 장례식장에서 (애도를 하는) 조사를 하느니 차라리 관에 누워있고 싶어 할 겁니다.”


(책 <스피치의 정석>, 스테판 루카스 저, 교보문고 간)



그렇지만 이런 불안감을 극복하고 멋진 연설을 할 수 있어야 진짜 리더가 될 수 있다. 많은 사람의 마음을 자신의 말로써 움직여본 경험은 중요하다. 어떠한 일이든 자신의 뜻을 이루기 위해서는 여러 사람의 도움이 필요하며, 적극적이고 자발적인 도움을 끌어내는데 설득만큼 중요한 것이 없기 때문이다. 


다행히 여러 사람 앞에서 말할 때 불안감을 극복할 수 있는 방법은 명쾌하게 나와있다. 말하기 경험을 쌓고, 충분히 준비를 하며, (연설 결과를) 긍정적으로 생각을 하고, (연설 과정을) 시각화 하여 시뮬레이션 해 보면 된다. 하나 더, 완벽은 애당초 존재하지 않음을 명심하자.









편집 | 글로벌마케팅팀 홍성덕



IT easy, IT is! | 열두번째, 딥러닝의 대모 페이페이 리


세계 최초의 프로그래머로 인정받는 에이다 러브레이스, 코볼(COBOL) 랭귀지를 만드는데 기여했고 디버그(debug)라는 단어를 만든 그레이스 호퍼, IBM에서 RDBMS Cost Based Optimizer를 만든 페트리시아 셀링거 등 컴퓨터 역사에서 많은 여성 엔지니어들의 기여가 있었습니다최근 새로운 기술 트렌드를 주도하고 있는 머신러닝 분야에서도 독보적인 여성 엔지니어가 있는데, 바로 페이페이 리(Fei-Fei Li) 입니다. 오늘은 페이페이 리에 대해서 알아보겠습니다.


  아메리칸 드림을 이룬, 딥러닝의 대모 '페이페이 리' 


(이미지 출처: http://money.cnn.com/2016/07/21/news/economy/chinese-immigrant-stanford-professor/index.html


페이페이 리는 현재 스탠포드 대학에서 컴퓨터 비전 연구실을 이끌고 있는데요

16살에 부모님과 함께 중국에서 미국으로 이민을 와서 그야말로 아메리칸 드림을 이뤄낸 장본인이라고 할 수 있습니다.


(이미지 출처: http://money.cnn.com/2016/07/21/news/economy/chinese-immigrant-stanford-professor/index.html


  중국에서는 지식인이었지만 미국에 이민을 온 페이페이 리의 부모님은 카메라를 고치거나 캐셔로 일하면서 힘들게 페이페이 리의 뒷바라지를 했고, 페이페이 리는 가난한 부모님을 돕기 위해 업소용 세탁기를 구매하여 세탁소를 직접 차려서 학비를 벌기도 했습니다. 그녀는 프린스턴 대학 졸업 후 매킨지, 골드만삭스 등의 제의를 뿌리치고 인공지능 박사가 되었고, 스탠포드 대학에서 컴퓨터 비전 연구실을 이끌게 되었습니다


  이러한 페이페이 리를 유명하게 만든 것은 다름이 아니라 이미지넷(ImageNet)이라는 대회 덕분입니다. 2012년 이미지넷 대회에서 제프리 힌튼 교수의 슈퍼비전팀이 딥러닝 기술로 압도적 우승을 하여 세상을 깜짝 놀라게 했었습니다그 이후 해가 거듭함에 따라서 더욱 발전하여 드디어 2017년에는 에러율을 3% 대로 낮추게 되어 인간의 능력을 능가하게 되었습니다. 영상 이미지 딥러닝의 발전에서 이러한 이미지넷은 매우 큰 기여를 했는데수십 억장의 이미지를 모아서 아마존 MTurk(Amazon Mechanical Turk)라는 플랫폼을 사용하여 수십만의 종류를 분류한 것입니다.


(이미지 출처: https://gluon-cv.mxnet.io/build/examples_datasets/imagenet.html)


바로 이 이미지넷은 2007년 스탠포드대의 페이페이 리가 만들었습니다. 이 데이터베이스를 만들 때 돈이 부족해서 많은 어려움을 겪었지만, 2009년 드디어 이미지넷 데이터베이스를 만들었고 2010년부터 대회를 열어 2017년 인간을 능가하게 된 것입니다. 앞으로는 3차원 이미지 등 더 어려운 문제로 다시 대회를 열 예정이라고 합니다. 페이페이 리가 이미지넷을 만들 때 주변의 동료교수들은 비웃었고, 지원금도 잘 받을 수 없었다고 TED 강연을 통해서 밝힌 바가 있습니다. 그러나 페이페이 리는 2009 10억장과 수만명의 노력으로 레이블이 달린 10억장의 이미지 데이터베이스를 확보하여 무료로 제공하게 되었습니다. 또한 스탠포드의 유명한 cs231n 영상 이미지 딥러닝 강의를 제자인 안드레 카파시와 개설하여 유튜브를 통해 무료로 공개하였습니다(cs231n 영상: https://www.youtube.com/playlist?list=PL3FW7Lu3i5JvHM8ljYj-zLfQRF3EO8sYv


(이미지 출처: https://medium.com/syncedreview/fei-fei-li-in-google-cloud-next-17-annoucing-google-could-video-intelligence-api-and-more-cloud-3f5faa87c729) 


최근에는 구글 클라우드에 합류하여 구글과 새로운 작업을 하고 있다고 합니다. 최종적인 그녀의 꿈은 기계에게 눈을 가지게 하는 것이라고 하는데요, 기계가 볼 수 있게 될 때 인간과 세상에 더 많은 혜택을 줄 수 있다고 생각하는 그녀의 꿈이 이뤄지길 기대해 봅니다.


                                                 


글로벌마케팅본부| 권건우 상무



공동작성/편집 | 글로벌마케팅팀 박예영