Model Optimizer 툴은 인기 있는 프레임워크에서 학습된 모델을 인텔 툴, 특히 추론 엔진(Inference Engine) 에서 사용할 수 있는 형식으로 가져오고, 변환하고, 최적화합니다. 인기 있는 프레임워크에는 Caffe*, TensorFlow*, MXNet*, ONNX* 및 Kaldi*가 있습니다.
2. 다운로드 폴더로 이동하여 w_openvino_toolkit_p_.exe를 더블 클릭합니다. 설치 디렉토리와 구성 요소를 선택할 수 있는 창이 열립니다.
3. 화면의 지시를 따릅니다. 추가 단계를 완료해야 하는 경우에 대비하여 다음과 같은 정보 메시지를 확인하세요.
4. 기본적으로 인텔® OpenVINO™ 은 인텔 문서의 다른 곳에서 <INSTALL_DIR> 로 언급된 C:\Program Files (x86)\Intel\openvino_<version>디렉터리에 설치됩니다. 단순화를 위해 최신 설치에 대한 바로 가기도 다음과 같이 생성됩니다. C:\Program Files (x86)\Intel\openvino_2021
5. 선택 사항: Customize 을 선택하여 설치 디렉터리 또는 설치하려는 구성 요소를 변경할 수 있습니다.
노트
여러분의 시스템에 이전 버전의 OpenVINO™ 툴킷이 설치되어 있는 경우 설치 프로그램은 재 설치시동일한 대상 디렉토리를 사용합니다. 새 버전을 다른 디렉토리에 설치하려면 이전에 설치된 버전을 제거해야 합니다.
6. Finish (마침) 화면은 핵심 구성 요소가 설치되었음을 나타냅니다.
7. Finish (마침)을 클릭하여 설치 마법사를 닫습니다.
Finish (마침)을 클릭하여 설치 마법사를 닫으면 지금 읽고 있는 문서와 함께 새 브라우저 창이 열리고(이 문서 정보 없이 설치한 경우) 다음 설치 단계가 있는 섹션으로 이동합니다.
이제 핵심 구성 요소가 설치되었습니다. 추가 종속 패키지들을 설치하려면 다음 섹션을 계속진행하세요.
3단계: 환경 구성
노트
인텔® OpenVINO™를 기본 설치 디렉토리가 아닌 디렉토리에 설치한 경우 이 안내서의 C:\Program Files (x86)\Intel 를 해당 디렉토리로 변경하세요.
OpenVINO™ 애플리케이션을 컴파일하고 실행하기 전에 여러 환경 변수를 업데이트해야 합니다. 명령 프롬프트를 열고 setupvars.bat 배치 파일을 실행하여 환경 변수를 임시로 설정합니다.
윈도우 PowerShell*로 설정 명령들을 실행하지 않는 것이 좋습니다. 대신 명령 프롬프트(cmd)를 사용하세요.
선택 사항: 명령 프롬프트 창을 닫으면 OpenVINO 툴킷 환경 변수가 제거됩니다. 옵션으로 환경 변수를 수동으로 영구적으로 설정할 수 있습니다.
노트
Python을 설치했음에도 Python이 설치되지 않았다는 오류가 표시되면 컴퓨터에서 프로그램을 찾지 못한 경우 일 수 있습니다. 시스템 환경 변수에 Python을 추가하는 가이드는 Windows 환경 변수 업데이트를 참조하세요.
이제 환경 변수가 설정되었습니다. 다음으로 Model Optimizer를 구성합니다.
4단계: Model Optimizer 프로그램 구성
Model Optimizer는 Caffe*, TensorFlow*, Apache MXNet*, ONNX* 및 Kaldi*와 같은 인기 있는 딥 러닝 프레임워크에서 학습된 모델을 가져오기 위한 Python* 기반 명령 도구입니다.
Model Optimizer는 인텔 OpenVINO 툴킷의 핵심 구성요소입니다. 모델에서 추론을 수행하려면(ONNX 및 nGraph 모델 제외) Model Optimizer 프로그램을 통해 모델을 실행해야 합니다. Model Optimizer를 통해 pre-trained된 모델을 변환할 때 출력(결과 파일)은 네트워크의 IR(Intermediate Representation)입니다. IR은 전체 모델을 설명하는 두 개의 파일입니다..
3. 아래 배치 파일을 실행하여 Caffe, TensorFlow 2.x, MXNet, Kaldi* 및 ONNX용 Model Optimizer를 설정하세요.
install_prerequisites.bat
선택 사항: 또는 각 프레임워크를 별도로 구성하도록 선택할 수 있습니다. 오류 메시지가 출력 되면 모든 종속 패키지들을 설치했는지 확인하세요. Model Optimizer 전제조건(prerequisites) 디렉토리에서 지원하려는 모델 프레임워크에 대한 스크립트를 실행하세요. 둘 이상의 스크립트를 실행할 수 있습니다.
노트
특정 프레임워크용 Model Optimizer 를 설치하도록 선택할 수 있습니다. 동일한 디렉토리에는 Caffe, TensorFlow 1.x, TensorFlow 2.x, MXNet, Kaldi* 및 ONNX에 대한 개별 스크립트(install_prerequisites_caffe.bat 등)가 있습니다.
Model Optimizer는 하나 이상의 프레임워크에 대해 설정됩니다.
이제 이 가이드의 모든 필수 설치, 구성 및 빌드 단계를 완료하여 CPU를 사용하여 학습된 모델로 작업할 수 있습니다.
GPU 또는 VPU를 사용하거나 Windows* 환경 변수를 업데이트하려면 선택적 단계 섹션을 읽으십시오.
Intel® Movidius™ VPU 카드가 포함된 Intel® Vision Accelerator Design에 PCIe 슬롯에 대한 SMBUS 연결이 필요한 경우 지원 엔지니어에게 문의하세요(거의 없음). 확인된 경우에만 SMBUS 드라이버를 설치합니다(기본적으로 필요하지 않음).
<INSTALL_DIR>\deployment_tools\inference-engine\external\hddl\drivers\SMBusDriver 디렉토리로 이동합니다. 여기서 <INSTALL_DIR> 은 Intel 배포 OpenVINO 툴킷이 설치된 디렉토리입니다.
hddlsmbus.inf 파일을 마우스 오른쪽 버튼으로 클릭하고 팝업 메뉴에서 설치(Install)를 선택합니다.
이제 장치 드라이버 설치가 완료되었으며 인텔® Movidius™ VPU와 함께 Intel® Vision Accelerator Design 을 사용할 준비가 되었습니다.
설정이 완료되면 툴킷 사용 시작섹션으로 이동하여 기본 OpenVINO™ 툴킷 워크플로를 배우고 코드 샘플 및 데모 애플리케이션을 실행할 준비가 된 것입니다.
선택 사항: Windows 환경 변수 업데이트
Note
이러한 단계는 Windows PATH환경 변수에 응용 프로그램을 추가하기 위해 CMake* 또는 Python* 설치 중에 확인란을 선택하는 것을 잊은 경우와 같은 특별한 상황에서만 필요합니다.
실행하는 명령을 입력했을 때 응용 프로그램을 찾을 수 없다는 오류 메시지를 반환하는 경우 다음 단계를 사용하여 Windows PATH를 업데이트하세요.
1. Windows 검색 창에서 시스템 환경 변수 편집을 입력하고 Enter 키를 누릅니다. 다음과 같은 창이 나타납니다.
2. 화면 하단에서 환경 변수를 클릭합니다.
3. 시스템 변수에서 경로를 클릭한 다음 편집을 클릭합니다.
4. 열린 창에서 찾아보기(Browse)를 클릭합니다. 찾아보기 창이 열립니다.
5. CMake를 PATH에 추가해야 하는 경우 CMake를 설치한 디렉터리로 이동합니다. 기본 디렉터리는 C:\Program Files\CMake입니다.
6.PATH에 Python을 추가해야 하는 경우 Python을 설치한 디렉터리로 이동합니다. 기본 디렉터리는 C:\Users\<USER_ID>\AppData\Local\Programs\Python\Python36\Python입니다. AppData폴더는 기본적으로 숨겨져 있습니다. 숨겨진 파일 및 폴더를 보려면 이 Windows 10 가이드를 참조하십시오.
7. OK 을 반복해서 클릭하여 각 화면을 닫습니다.
PATH환경 변수가 업데이트되었습니다. 변경 사항이 즉시 적용되지 않으면 재부팅해야 할 수 있습니다.
6단계: 툴킷 사용 시작
이제 툴킷을 사용해 볼 준비가 되었습니다. 계속하려면 시작하기 가이드 섹션을 참조하여 기본 OpenVINO™ 툴킷 워크플로를 배우고 다양한 추론 장치에서 pre-trained 모델로 코드 샘플 및 데모 애플리케이션을 실행하세요.