AI Serving
NVIDIA DeepStream: 기존 대비 40% 이상의 dGPU 메모리를 절약했습니다.
Multi Modal 모델 적용: 멀티 모달 모델을 적용하여 복합적인 데이터 처리 및 분석을 가능하게 했습니다.
Message Broker 연결 및 REST API: Message Broker를 통한 메시지 전달과 REST API를 통해 파이프라인 제어를 구현했습니다.
CUDA 프로그래밍: CUDA 프로그래밍을 통해 데이터 전처리 과정에서 정규화를 수행, 시스템 성능을 극대화했습니다.
Backend
대규모 비디오 스트림 아키텍처 설계: 다수의 비디오 스트림을 중계할 수 있도록 아키텍처를 설계하고, 이를 통해 안정적인 스트리밍 환경을 구현했습니다.
InfluxDB 사용: InfluxDB를 통해 NCP 기준 1초에 한 번씩 데이터를 클라이언트에게 전송했습니다.
쿠버네티스와 Argo CD: 쿠버네티스(Kubernetes)와 Argo CD를 활용하여 Scale up/out 및 CI/CD 환경을 구축했습니다. 이를 통해 시스템의 안정성과 확장성을 보장했습니다.
프론트엔드
Video Control 및 HLS, WASM 사용: RTSP를 바로 받을 수 있도록 HLS 및 WebAssembly(WASM)를 활용하여 비디오 스트림을 효율적으로 처리했습니다.
Svelte 프레임워크: Svelte 및 SvelteKit 프레임워크에서 필요한 라이브러리를 지원하지 않아, 직접 라이브러리를 수정 및 커스텀하여 프로젝트에 적용했습니다.
이로 인해 프로젝트의 유연성과 성능을 크게 향상시켰습니다.
비디오 편집 도구 제작: HLS, WASM와 Svelte, SvelteKit 프레임워크를 통해 자막, 자르기, 크기 조절 기능을 포함한 비디오 편집 도구를 제작했습니다.
실시간 데이터 시각화: D3 및 Observable Plot을 활용하여 1초에 한 번씩 그래프 데이터를 갱신하고, 68,400개의 데이터를 받아 그래프를 제작한 후 다운사이징했습니다.