STAR-MOOC - DNA 기반의 X+AI 실증 강의 요약 (8주차)
창의자율프로젝트 STAR-MOOC 8주차 내용 정리
STAR-MOOC - DNA 기반의 X+AI 실증 강의 요약 (8주차)
이 포스팅은 26년 1학기 광주과학기술원(GIST) AI대학원에서 수강한 창의자율 프로젝트 과목에 대한 정리글입니다.
📝 강의 요약 노트: 8-1. 멀티미디어 네트워킹과 데이터 전송의 진화
1. 강의 주제 및 핵심 키워드
- 주제: 연속 미디어(Continuous Media)의 네트워크 전송 한계 극복과 동적 네트워크 적응(Dynamic Network Adaptation) 기술
- 핵심 키워드: 연속 미디어(Continuous Media), SVC(Scalable Video Coding), QoS (Delay/Loss), 대화형(Interactive) vs 스트리밍(Streaming), RTP/RTCP, 에러 제어(FEC, Concealment), DASH(HTTP 스트리밍)
2. 주요 내용 요약
- 연속 미디어(Continuous Media)와 압축의 필요성: 오디오(Speech/Audio)와 비디오 데이터는 시간에 따라 흐르는 연속성을 가짐. 특히 비디오는 공간(x,y 해상도)과 시간(프레임 레이트) 차원이 곱해져 데이터양이 폭발적으로 증가하므로 원본(Raw Data) 전송이 불가능하여 압축이 필수적임.
- SVC (Scalable Video Coding) 기술: 대용량 비디오를 네트워크 상황에 맞게 전송하기 위해 데이터를 여러 계층(Layer)으로 쪼개는 기술임. 기본 화질(SD)만 먼저 보내고, 네트워크 여유가 있으면 추가 데이터(차이값)를 보내 고화질(HD)로 업스케일링(Upscaling)하는 방식(공간/시간/화질 스케일링)을 사용함.
- 대화형 서비스 vs 스트리밍 서비스:
- 대화형 (Interactive, 예: Zoom, VoIP): 송수신 지연(Delay)이 100~250ms를 넘으면 통신이 어려우므로 실시간성이 극도로 중요함. 네트워크 지연이 발생하면 일부 손실(Loss)을 감수하더라도 빠르게 데이터를 전송해야 함. (RTP/RTCP 프로토콜 활용)
- 스트리밍 (Streaming, 예: 유튜브, 넷플릭스): 실시간성보다는 끊김 없는 재생이 중요하므로, 미리 데이터를 받아두는 버퍼링(Buffering)을 활용하여 네트워크 지연을 상쇄함.
- 네트워크 품질(QoS)과 에러 제어 (Error Control): 패킷 손실(Loss)을 막기 위해 재전송을 하면 지연(Delay)이 늘어나는 딜레마가 발생함. 이를 해결하기 위해 원본에 여분의 복구용 데이터를 덧붙여 보내는 전방 에러 수정(FEC, Forward Error Correction)이나, 손실된 부분을 이전 데이터로 교묘하게 덮어쓰는 에러 은닉(Error Concealment) 기술이 발달함.
- DASH와 동적 네트워크 적응 (Dynamic Network Adaptation): 과거에는 실시간 전송 전용 프로토콜이 쓰였으나, 웹(HTTP) 인프라가 안정화되면서 현재는 TCP/HTTP 기반의 스트리밍이 대세가 됨. 대표적으로 DASH(Dynamic Adaptive Streaming over HTTP) 기술은 사용자의 실시간 네트워크 상태(대역폭, 지연)를 파악하여, 애플리케이션 스스로 화질과 전송량을 동적으로 조절(Adaptation)함.
3. 핵심 개념 및 용어 정리
- SVC (Scalable Video Coding): 하나의 비디오 스트림을 여러 화질/해상도 계층으로 인코딩하여, 단말기 성능이나 네트워크 대역폭에 맞춰 필요한 계층까지만 전송받아 조립할 수 있게 하는 비디오 압축 기술.
- RTP / RTCP (Real-time Transport Protocol / Control Protocol): 실시간 데이터(음성, 영상)를 전송하기 위해 패킷에 타임스탬프와 순서 번호를 붙여 보내고(RTP), 데이터가 잘 도착하고 있는지 네트워크 상태를 감시하고 제어(RTCP)하는 통신 규약.
- FEC (Forward Error Correction): 수신 측에서 패킷 손실이 발생했을 때 재전송을 요청할 시간이 없는 실시간 환경에서, 송신 측이 미리 에러 복구용 잉여 데이터를 함께 보내 수신 측이 스스로 오류를 복원하게 하는 기술.
- DASH (Dynamic Adaptive Streaming over HTTP): 미디어 콘텐츠를 아주 작은 HTTP 파일 조각으로 잘라두고, 사용자의 네트워크 상태가 좋으면 고화질 조각을, 나쁘면 저화질 조각을 동적으로 선택해 다운로드(스트리밍)하는 기술.
4. 한 줄 결론
- 현대의 대용량 데이터 전송 인프라는 완벽하지 않은 네트워크의 한계(Delay, Loss)를 극복하기 위해, 애플리케이션 자체가 버퍼링, 에러 복원, 화질 스케일링(DASH, SVC) 등을 통해 환경에 스스로 적응(Adaptation)하는 방향으로 진화해 왔음.
📝 강의 요약 노트: 8-2. CDN과 데이터 중심 컴퓨팅 (Data Centric Computing)
1. 강의 주제 및 핵심 키워드
- 주제: 대규모 미디어/데이터 전송 한계 극복을 위한 CDN과 데이터 중심의 클라우드 네이티브 아키텍처
- 핵심 키워드: CDN(Content Delivery Network), Anycast, 스케줄링 알고리즘(Priority Queuing, WFQ), 망 중립성(Net Neutrality), 서비스 기능 체이닝(SFC), 마이크로서비스 아키텍처(MSA), 데이터 중심 컴퓨팅(Data Centric Computing)
2. 주요 내용 요약
- 네트워크의 한계와 CDN의 등장: 대용량 멀티미디어 스트리밍 시대가 열리면서, 개별 애플리케이션의 적응(Adaptation)만으로는 폭증하는 트래픽을 감당하기 어려워짐. 이를 해결하기 위해 중앙 서버에서 모든 데이터를 보내는 대신, 사용자와 가까운 지역 서버(Edge)에 데이터를 미리 복사해 두고(캐싱) 전송하는 CDN(콘텐츠 전송 네트워크)이 필수적인 인프라로 자리 잡음. (예: Netflix와 AWS의 결합)
- 네트워크 차원의 QoS 한계와 망 중립성: 네트워크 장비 자체에서 중요한 패킷을 먼저 보내주는 스케줄링 기술(Priority Queuing 등)이 존재하지만, 현실에서는 망 중립성(Net Neutrality) 원칙(돈을 더 냈다고 특정 데이터를 차별/우대하면 안 된다는 원칙) 때문에 네트워크 차원의 차등 제어가 활성화되지 못함. 따라서 인프라는 단순히 대역폭을 넓히는(광케이블 등) 방향으로 발전했고, 지연이나 손실 해결은 여전히 애플리케이션과 CDN의 몫이 됨.
- 클라우드 네이티브와 마이크로서비스 (MSA)의 결합: 거대한 클라우드 자원 풀(Pool) 위에서, 애플리케이션들은 컨테이너 기반의 아주 작은 기능 단위(Microservices)로 쪼개어짐. 이 작은 기능들은 사용자의 요구나 네트워크/데이터 상황에 맞춰 유연하게 엮이고(Service Composition, SFC) 자동 배포(CI/CD)되며 서비스로 완성됨.
- 데이터 중심 컴퓨팅 (Data Centric Computing)으로의 패러다임 전환: 과거에는 중앙의 컴퓨터(CPU)가 중심이고 데이터를 끌어오는 구조였다면, 초거대 AI 시대에는 무거운 데이터(Data Gravity)가 있는 곳으로 컴퓨팅 자원이 찾아가는 ‘데이터 중심 컴퓨팅’으로 전환됨. 수많은 엣지(Edge)와 코어(Core)가 유기적으로 통합되어 데이터가 모이고(Connected Data Lake), 그 위에서 AI 연산이 이뤄지는 것이 바로 DNA(Data, Network, AI) 기반 X+AI 서비스의 최종 아키텍처임.
3. 핵심 개념 및 용어 정리
- CDN (Content Delivery Network): 동영상, 이미지 등 용량이 큰 콘텐츠를 사용자와 가까운 분산 서버에 미리 저장해 두어, 트래픽 병목 현상을 줄이고 전송 속도를 높이는 네트워크망.
- Anycast (애니캐스트): 여러 대의 서버가 동일한 IP 주소를 공유하되, 클라이언트가 데이터를 요청하면 라우팅 프로토콜이 가장 가깝고 네트워크 상태가 좋은 서버로 자동 연결해 주는 통신 방식. (CDN 핵심 기술)
- 망 중립성 (Net Neutrality): 인터넷 망을 제공하는 통신 사업자는 모든 콘텐츠, 애플리케이션, 기기, 사용자를 차별 없이 동등하게 취급해야 한다는 원칙.
- Data Centric Computing (데이터 중심 컴퓨팅): 연산 속도보다 데이터 전송 속도와 비용이 시스템의 병목이 되는 현대 환경에서, 데이터 이동을 최소화하기 위해 스토리지와 연산 장치를 물리적/논리적으로 최대한 밀착시키는 아키텍처.
4. 한 줄 결론
- 대규모 데이터와 멀티미디어 서비스는 CDN을 통해 전송 한계를 극복해 왔으며, 궁극적으로 AI 서비스는 네트워크와 컴퓨팅이 데이터가 위치한 곳(Connected Data Lake)을 중심으로 유연하게 엮이는(MSA, SFC) 데이터 중심 컴퓨팅 구조로 완성됨.
This post is licensed under CC BY 4.0 by the author.
