구글, 모바일용 텐서플로 시험판 배포 시작

임민철 기자 입력 2017. 11. 16. 07:26
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

구글이 모바일용 머신러닝 라이브러리 '텐서플로 라이트(TensorFlow Lite)' 시험판 소스코드를 배포하기 시작했다.

텐서플로 라이트는 모바일 또는 임베디드 기기를 위한 텐서플로 경량화 솔루션이다.

구글은 텐서플로 라이트가 작은 바이너리 크기로 작은 기기에서 구동되는 머신러닝 모델 기반 추론, 빠른 시동을 지원한다고 밝혔다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

iOS-안드로이드 앱 개발자 머신러닝 활용 유도

(지디넷코리아=임민철 기자)구글이 모바일용 머신러닝 라이브러리 '텐서플로 라이트(TensorFlow Lite)' 시험판 소스코드를 배포하기 시작했다.

구글은 지난 14일 공식 개발자 블로그를 통해 안드로이드와 iOS 모바일 애플리케이션 개발자들이 써볼 수 있는 텐서플로 라이트 디벨로퍼 프리뷰 버전을 소개했다. [☞원문보기]

텐서플로 라이트는 모바일 또는 임베디드 기기를 위한 텐서플로 경량화 솔루션이다. 텐서플로는 구글이 인공지능(AI) 애플리케이션 개발을 위한 모델 학습 및 추론에 사용하는 오픈소스 라이브러리다. 앞서 구글은 지난 5월 구글I/O 개발자 컨퍼런스를 통해 작은 기기에서도 동작할만큼 텐서플로의 크기를 확 줄인 버전을 내놓겠다고 예고했다. 6개월만에 그 실체가 디벨로퍼 프리뷰 상태로 처음 나온 것이다.

텐서플로 라이트 로고

구글은 텐서플로 라이트가 작은 바이너리 크기로 작은 기기에서 구동되는 머신러닝 모델 기반 추론, 빠른 시동을 지원한다고 밝혔다. 일단 애플 iOS 및 구글 안드로이드부터 지원하지만, 텐서플로 라이트의 런타임은 여러 다른 플랫폼에서 돌아가도록 설계됐다고 설명했다. 더불어 극적으로 개선된 모델 로딩시간과 하드웨어 가속 지원을 포함한 모바일 기기 최적화로 빠른 속도를 제공한다고 덧붙였다.

구글은 또 머신러닝 연산을 더 효율적으로 수행하도록 설계된 커스텀 하드웨어가 점점 증가 추세라 지적하며, 텐서플로 라이트가 이런 기기의 성능 가속 효과를 끌어내기 위해 안드로이드 뉴럴네트웍스 API를 지원한다고 강조했다. 코드에 이 API를 썼는데 막상 성능 가속 기술을 지원하지 않는 하드웨어에서 실행되는 경우에도 최적의 CPU 동작을 기본 처리 대상으로 삼아 충분한 빠르기를 지향한다.

텐서플로 라이트 아키텍처 및 구성요소.

텐서플로 라이트의 아키텍처를 보면 독립 구성요소는 3가지다. 첫째는 학습된 텐서플로 모델. 둘째는 모델을 텐서플로 라이트 파일형식으로 변환하는 텐서플로 라이트 컨버터. 셋째는 변환을 통해 최고 속도와 최소 크기로 최적화된 플랫버퍼(FlatBuffers) 형식의 텐서플로 라이트 모델 파일. 이렇게 만들어진 텐서플로 라이트 모델 파일은 자바API, C++ API, 인터프리터를 사용한 모바일앱 안에 배포된다.

텐서플로 라이트는 이미 모바일에 최적화해 학습된 수많은 모델을 지원하고 있다. 모바일넷, 인셉션v3, 스마트리플라이, 3가지가 추천됐다. 모바일넷은 1천개 사물 분류를 식별할 수 있는 시각 모델이다. 인셉션v3는 기능적으로 모바일넷과 유사하나 더 덩치가 크고 더 높은 정확도를 지원하는 이미지인식 모델이다. 스마트리플라이는 대화형 채팅 수신메시지에 원터치 답문을 제공하는 온디바이스 대화 모델이다.

임민철 기자(imc@zdnet.co.kr)

Copyright © 지디넷코리아. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?