나무모에 미러 (일반/어두운 화면)
최근 수정 시각 : 2024-12-11 15:06:34

자막

1. 개요2. 명칭3. 역사4. 외국 콘텐츠의 번역 자막
4.1. 영화4.2. 방송4.3. 유튜브4.4. 자막파일 확장자
4.4.1. 설명4.4.2. 형식4.4.3. 자막 편집기, 자막 변환 사이트4.4.4. 좋지 않은 자막4.4.5. 좋은 자막4.4.6. 여담
5. TV 프로그램 자막
5.1. 정보 전달용 자막5.2. 청각장애인 대상 자막5.3. 비장애인 청취 보조용 자막5.4. 흥미를 돋우는 자막
6. 인터넷 콘텐츠 자막7. 관련 문서

1. 개요

/ Subtitles

관객이나 시청자가 읽고 참고할 수 있도록 화면(주로 화면 하단)에 출력되는 글자.

2. 명칭

자막(Subtitle)과 캡션(Caption)은 기술적으로 구현하는데 차이가 없기 때문에 용어를 혼용하는 경향이 있다. 용도에 따라 엄연히 구분하여 사용할 필요성이 있기도 하다.

3. 역사

소리가 없던 무성 영화 시절에 자막이 활용되었다. 화면에 직접 쓰는 형식은 아니었고, 옛날 무성 영화를 보면 장면 - 자막 - 장면 - 자막 식으로 바뀌는 것을 볼 수 있다. 가장 초기 형태는 당연히 그냥 화면만 보여주는 것이고, 그 다음은 대사를 카드 몇 장에 적어서 관객들에게 나눠준 다음에 그 때 그 때 화면과 함께 카드를 보는 형태였다. 하지만 이런 초 아날로그 방식은 필름에는 남지 않고, 그 다음 단계가 본문에 언급된 형태. 당연히 카드 대사는 자막에 포함되지 않으니, 화면 다음은 자막이라고 봐도 된다. 문맹률이 높던 옛날에는 자막을 대신하여 화면 상황을 설명하고 대사를 말해주는 변사라는 직업도 있었다.

유성 영화가 등장하며 무성 영화가 사라지고, 외국 영화들을 방영하는 방법으로 더빙자막이 사용되었다.

TV 방송국에서는 뉴스와 같이 정보제공이 중요한 프로그램에서 자막을 많이 활용하였다. 인터뷰 하는 사람 이름을 표시하는 데에도 자막을 썼다.[1] 잘 알려지지 않았지만, 필요한 경우 청각장애인을 위해서 Closed Caption도 함께 송출하였다. 자막을 볼 수 있는 기능이 있는 TV는 청각장애인용 자막을 받아서 볼 수 있었다.

한국 TV 방송에서 본격적으로 자막을 쓴 것은 상당히 오래됐으며, 1961년 KBS-TV 개국 후부터 필수가 됐다. 초기에는 흰 종이에 먹물로 글씨를 쓰고 이를 카메라로 찍어 현상한 후, 그걸 슬라이드로 만들어서 슬라이드 체인에 걸어 화면에 비추면 글자만 보이게 하는[2] 이른바 '슈퍼 임포즈(통칭 슈퍼/수파)' 방식이었다. 또한 생방송 시 자막을 넣었다 뺐다 하는 식의 '슈퍼 인/아웃'이란 용어도 쓰이기 시작했다.[3]

그러나 수작업식 슈퍼는 단점이 많았다. 우선 자막에 서라운드(edge, 테두리선)가 없어서 밝은 화면에선 잘 안 보이는 한계점이 있는데, 이러한 문제점은 1972년 KBS가 일본 샤켄 사의 사진식자기를 도입하면서 해결되었다. 이는 검정 바탕에 흰 글씨로 인화한 스캐너 규격의 용지를 스캐너 체인에 넣어 흰 글씨만 나오도록 했고, 테두리도 만들 수 있어서 가독성이 좋고 수작업도 필요없었다. 1976년에는 KBS 미술부 및 지역국들이 일본 모리사와 사의 MTV-B, MC-6 사진식자기를 도입하여 더욱 활성화됐다. 1981년에는 샤켄 사의 신형 모델을 도입하고 1988년에는 국내 최초로 롤러프린트 방식의 '텔로마이어-T'를 도입하긴 했으나, 사진식자 방식은 브라운관 특성상 글씨 크기가 작거나 굵으면 형태가 뭉개지고, 선이 가늘면 주사선에 묻혀 가독성 문제가 생기는 한계점이 있었다. 또한 담당 PD가 프로그램 한 번 연출할 때마다 자막이 담긴 스캐너 용지를 여러 장씩 들고 가야 하는 비효율적인 면도 있었으며 경보방송, 긴급뉴스, 스포츠 중계 같이 신속한 자막 처리를 요하는 프로그램에선 속수무책이었다.[4]

1980년 컬러 TV 방송 실시 이후 자막도 컬러화할 필요성이 생기기 시작했다.[5] 물론 화면에 자막을 입힐 때 쓰는 FSS(Flying Spot Scanner)는 스위쳐에 배경색을 지정해서 색깔을 입힐 수 있었으나 사용 시의 복잡함, 단조로운 색상 등의 단점도 있었다. 1981년에는 KBS가 국내 최초로 일본 코와 사로부터 Z80 마이크로프로세서 기반의 8비트 온라인용 문자발생기 'CG-800'을 도입해서 제11대 국회의원 총선거 생방송에 처음으로 썼는데, 이 기기는 벡터 폰트의 한글/한문 디스플레이 기능, 16색의 색상표현, 직선/원 등의 간단한 그래픽 기능을 갖춤으로써 1990년대 초까지 한국의 TV 뉴스용 자막처리기로 많이 애용되었다.

1983년에는 KBSMBC가 처음으로 독자 자막발생기를 개발했는데, KBS는 Z80 기반으로 비디오 메모리를 제어하고 폰트를 이식해서 개발했으며 MBC는 그해 5월부터 두달 간 프로야구 중계방송용 문자발생기 '스포츠컴'을 먼저 개발했는데 방송 사상 처음으로 키보드 타자를 통해 방송 화면에 나오게 하는 기종이며, 프로야구 중계 시 즉석에서 타율을 계산해서 바로 화면에 표시하고 주자 상태나 홈런 시 커다란 '홈런' 문자를 필요에 따라 즉시 표시하게 했다. 주요 기능으로는 한글/영문 표시 및 편집, 횟수/점수 표시, 로고 표시, ON AIR CONTROL, 문자 깜빡임(블링크) 등이었다.

뒤이어 전술한 1983년 중공 전투기 귀순 사건을 계기로 개발된 '슈퍼컴'은 명조/고딕체 혼용 자막처리, 문자 및 바탕색 8개 표시, 문자 및 바탕색 바꿈(리버스), 문자 깜빡임(블링크) 크롤, 300여장의 화면 기억(스틸 슬라이드), 수평이동(방송순서 안내), 수직이동(전국방송망, 스탭슈퍼), 90여장의 문안을 번호로 선택해 즉시 방송하는 경보방송 기능 등을 탑재했다. 해당 기기는 방송 사상 최초로 외부 업체에 로열티를 내는 조건으로 공급하도록 했는데, 1990년대 초반까지 비디오테이프 제작사들이 외화, 애니메이션 오프닝 등지 자막처리에 주로 애용하여 1992년 기준 총 200여대 정도로 추산된다. 서울 본사에 먼저 도입된 이후 지역 계열사들의 요청에 따라 1984년에는 '스포츠컴 2호'를 만들어 슈퍼컴과 함께 보급했다. 스포츠컴 2호는 컬러 문자 표시, VER SCROLL(스탭슈퍼 처리), 각종 경기별 기능, 프로야구 각 팀별 기록 보존 기능 등을 추가했으며 기록경기(수영, 육상) 등의 시간 표시, 랩 타임 기능 등을 보유했고 권투 3분 타이머 기능은 1990년대 초반까지 쓰였다.

1984년에는 KBS 기술연구소가 NEC의 PD7220을 기반으로 한 컴퓨터 연결형 문자발생기 'Datavix'를 개발했고, 1986 서울아시안게임을 앞두고 컴픽스와 함께 국제신호 제작용 기기 'VIDMASTER 16비트'를, 1988 서울올림픽 중계방송을 위해 'PRISM'을 각각 개발했다. 1990년대 초반 들어 사진식자 대신 문자발생기의 사용이 점차 확대되는 한편, 1991년 KBS가 PRISM의 업그레이드판인 'PRISM Plus'를 개발하여 동년도 지방선거 생방송에 써먹기 시작했고, 1993년에는 에디터 프로그램을 개량한 'PRISM Pro', 1995년 문자에 여러 효과를 넣는 GEM 보드를 탑재한 'PRISM GEM' 등의 업그레이드판을 각각 개발했다가 1998년에는 윈도우 표준 트루 타입 폰트를 채용한 '다빈치'를 개발해 제2차 전국동시지방선거 생방송에 쓰기 시작했다.

MBC는 1983년 슈퍼컴에 이어 1985년에는 자막처리기능 외에 1,670만가지 색상으로 타이틀/로고 제작, 컬러 애니메이션(사이클링), 미러 효과 등이 가능한 '솔거 2000'[6]을 개발해 제66회 전국체육대회 중계방송에서 먼저 시도했고, 1986 서울 아시안 게임을 앞두고 종전의 스포츠컴이나 슈퍼컴으로는 참가국 국기 등 그래픽처리가 안 되는 등의 문제가 생기고 다양하고 원하는 위치에 쓸 수 있으며 간단한 그래픽 처리 가능, 플로피디스크 등 보조 기억장치 사용 가능 등 새로운 기능이 요구되자 1985년 말부터 국제신호 제작용 그래픽형 기기 'Grafont'를 개발했는데 1200X432짜리 고해상도, 문자체/크기의 다양화, 미리보기 기능 내장, 간단한 도형, 플로피디스크 내장 등이 탑재되었다. 이 기종은 서울 아시안 게임 기간 동안 서울, 부산, 대구 등 MBC 중계담당 경기장에 5대를 설치하여 국제신호 그래픽(국기) 및 자막 처리에 썼다.

1988 서울올림픽을 앞두고 160여개국 국기 표시 및 국제신호 제작용 지정 영문 서체 수용 등이 필요해지자 'Paragon'을 개발했는데, 비트 슬라이스 CPU와 래스터 엔진으로 문자의 고속처리를 가능케 했고 그래픽과 문자 화면이 각각 분리되어 두 가지 혼용 시에도 상대 화면에 손상을 주지 않는 이점이 있다. 그래픽 화면은 마우스로 그림을 그릴 수 있고 기본적인 그래픽 기능(선, 사각형, 원, 타원, 색채음, 그림 복사 등)을 수용했다. 서울올림픽 기간 동안 MBC 담당 종목의 중계차에 설치되어 국제신호 제작에 쓰였고 뉴스센터에 설치된 장비는 국내 방송 자막처리에 쓰였다. 이는 1990년대 초반까지 TV주조, 뉴스센터, CG실 등에 설치되어 스포츠 중계, 방송순서 안내 등에 쓰였다.

종전의 장비들이 자막처리 위주로 그림/도표를 그리는 등 그래픽 기능을 사용하는 데 불편한 점이 생기고 자막처리 기능도 문자 크기/간격 조정과 회전 등을 자유자재로 할 수 있도록 하자는 요구가 커지자 1989년 4월부터 보급형 'CANVAS'를 개발하는 데 착수, 1990년 1월 1차 완료하고 각 계열사에 제작 의사를 물어 본/계열사분 17대를 제작하고 11월 말 오퍼레이팅 교육을 개시했다. 이를 위한 몇 가지 기술은 특허 출원하고 제작업체에 기술 이전해 타 업체에 판매하는 경우 로열티를 지불토록 했다. 1991년 9월에는 이미 보급된 해당 기종의 기능 추가 및 추가 기능에 대한 교육을 실시했다.

위 기종은 벡터 방식의 문자 크기/위치선택 자유 선정 외에 X,Y,Z 방향회전 가능, 문자 모양 SLANT 가능, 비트맵 방식 스크롤/크롤 가능, 문자 편집, 기본적인 그림 그리기, 외부 그림 입력, 외부입력 그림 수정 및 부분 따내기, 태블릿 사용, 팝업 메뉴 방식, 하드디스크를 이용한 다량의 화면 저장, 하드디스크와 플로피디스크 쓰는 장비 간의 화면 내용 이동, 저장 내용 연속 호출, 타 컴퓨터와 온라인 기능 등을 탑재했다. 1993년에는 노후화된 보도국용 기기 CG-800을 대체하고자 PC 슬롯에 장착하는 보드 형태의 기기 'Fantasia'를 개발했고, 1994년에는 스포츠 중계용 자막처리/도형발생기 '스포티아'도 개발했다.

SBS는 1991년 개국 당시 문자발생기 개발 능력이 전무해서 PC/386 기반의 타가보드 장착형 기기 'F/SCAN'을 도입했고, 1994년 486 기반의 'Power-CG'도 도입했다가 같은 해 노트북 컴퓨터에 문자발생 기능을 탑재한 휴대용 문자발생기를 독자 개발하여 중계차 등 협소한 공간에서 쉽게 쓰이도록 했고, 1995년에 486 기반 타가보드 장착 기기를 현업자의 요구에 맞게 손본 'CAPS'를 개발했다. 이 기기는 기존의 글자 형태보다 부드러운 테두리선을 강조토록 한 것이다.

문자발생기는 기존 사진식자와 달리 컴퓨터 기반이라 여러가지 폰트를 쓸 수 있지만, 기존 브라운관 TV는 주사선 수가 525개라 글자의 선이 굵거나 가늘면 판독이 어렵다는 한계점도 있었다. 2002년 HDTV 시대의 개막으로 KBS는 HD 화질에 맞춘 'HD 다빈치 플러스'를 개발했고, 2006년 업그레이드판인 '미르'까지 개발해냈다.[7]

예능에서는 김영희 PD에 의해 자막 활용이 급격하게 늘었다. 그가 일본에 연수를 갔을 때 일본 프로그램에서 자막을 활용하는 것을 보고서 도입시켰다. 그 당시 자막이란 인물을 소개하거나 중요 정보를 전달할 때나 잠깐 쓰였지, 화면을 자막으로 도배하는 것은 청각장애인들을 위한 기능이었을 뿐이었어서, 초반에는 시청자들로부터 자기들이 청각장애인이냐는 항의를 받아서 시말서를 쓸 정도였다. 하지만 자막을 꾸준히 집어넣자 1년 뒤에는 모든 예능에서 자막을 사용할 정도로 필수요소가 되었다. 자세한 내용은 후술.

인터넷이 발달하면서 영화파일 공유가 늘어났다. 해외영화 공유에 의해 자막이 요구되었고, 자막파일이 널리 사용되게 되었다.

유튜브, 넷플릭스 등 인터넷을 통한 스트리밍(OTT) 사업이 발전하였고, 국가를 넘나들며 영상 감상이 늘어나면서 외국어 번역 자막의 중요성이 증가하게 된다. 거대 사업자가 이 분야에 참여하면서 자막기술도 함께 발전하게 된다.

4. 외국 콘텐츠의 번역 자막


이런 게 아니다.

4.1. 영화

원래 영화관에선 자막을 오른쪽 상단에 세로쓰기적었지만, 현재는 대세에 따라 가로쓰기를 사용하고 있고 대세가 된 것은 2003년 이후로 추정된다. 현재는 99%는 가로쓰기 자막이라봐도 무방하나, 2008년에 재개봉한 고전 영화 벤허는 세로 자막이었다.

일부 영화는 아직도 세로쓰기 중이다. 기본적으로 멀티 플렉스와 같은 스타디움식 좌석, 즉 뒤로 갈수록 좌석이 위로 올라가는 형태가 아니면 앞사람 머리 때문에 화면의 하단이 가려진다. 때문에 멀티 플렉스 영화관이 아니면 가로 자막은 쥐약. 멀티 플렉스가 등장한 후에도 이중으로 자막 제작하는 번거로움과 비용 때문에 가로 자막의 등장은 상당히 뒤로 밀린 편이다. 2005년판 책만 해도 시도를 못하고 있다는 언급이 있을 정도. 기본적으로 가로 자막은 12자, 세로 자막은 8자가 한계라는 것을 고려하면 가로 자막의 압승이기는 한데, 멀티플렉스 영화관이 아니면 세로 자막을 쓸 수밖에 없다. 비용도 세로 자막이 싸다. 수익금이 별로 나오지 않는다면 한 푼이라도 줄이기 위해서 세로 자막을 사용할만하다는 이야기.

영화관에 들어가는 영화 자막은 필름 시절이던 과거에 2가지가 있었다. 가장 고전적인 방식은 뜨겁게 달군 활자판으로 필름을 지지는 것이었고, 좀 더 나중에는 레이저로 새기는 방식이 나타났다. 영화 자막이 항상 하얀색인 것은 태워진/새겨진 부분으로 영사기의 빛이 투과되기 때문이다. 동판으로 태울 때는 가장자리에 본의 아니게 탄 자국이 남아 저절로 윤곽선이 새겨졌는데, 레이저로 새기기 시작한 후에는 그 윤곽선이 사라졌다. 그래서 화면이 흰색이면 자막이 보이지 않는 부작용이 생겼다. 단적으로 반지의 제왕에서 백색의 간달프 장면은 대사가 거의 안 보인다. 동판으로 새기면 그 탄 흔적 때문에 윤곽이 생겨서 글자가 잘 보인다.

필름이 거의 사장된 현재 표준이 된 DCP로 상영하는 영화는 XML로 자막 파일을 만들거나, 아예 PNG로 그림 파일 비슷하게 만들어서 프로젝터로 자막을 쏘는 방식인데 당연히 색을 넣을 수도 있고 오역이나 오탈자 등이 있으면 수정도 쉬우니 문제해결. 그러나 이걸 쓰려면 극장에 별도의 장비가 필요하다. 그리고 이 돈을 영화사와 극장 중에서 누가 대느냐에 따라서 논쟁도 있었던지라 상당수의 극장은 그냥 기존 방식을 쓰고, 대형 멀티 플렉스 등지를 중심으로 이런 방식의 디지털 자막을 사용한다. 디지털 자막이라고 해서 디지털 영화의 자막상영 방식이 아니다. 다만 디지털 영화나 3D나 4D 등의 영화 상영관은 기본적으로 시설에 들인 돈이 많은데 그 과정에서 디지털 자막을 상당수 사용하고 있기 때문에 이런 착각이 벌어지는 것이다.

파일:external/image.chosun.com/2014021402671_0.jpg

자모음 간격이 뚝뚝 떨어져 있고 큼직큼직한 자막의 글씨체는 전 극장 전 영화 공통인데, 동판 태우기로 자막을 넣던 시절에 좁은 필름에 동판으로 찍어 태워도 글자의 획끼리 달라붙지 않고 선명하게 나오도록 자막 전용으로 개발된 글자체다. 레이저 새김법으로는 어떤 폰트로든 자유롭게 넣을 수 있지만, 폰트를 바꾸려면 따로 돈이 들기 때문에 지금까지도 그 글자체가 그대로 쓰이고 있다. 이 폰트는 1994년 김태정씨에 의해서 만들어진 태영화체라는 폰트로, 태~체는 모조리 이 사람 작품.

이 폰트를 바꾸는데는 한 글자당 1만원씩 들어가서, 자모 모두 고려하면 2400만원이 넘게 들어간다. 기본적으로 관객들도 익숙하고 글자의 가독성도 괜찮아서 굳이 이 돈 들여서 바꿀 가능성은 없다고 봐도 된다. 인터뷰. 이 폰트는 컴퓨터용으로 출시되었고 낱개 구매도 가능하니 관심있다면 여기 가서 구입하자.

디지털 자막의 경우는 영원히 변치 않는 굴림체의 폭풍우가 불고 있다. 퍼피티어, 페르소나 5, GRAVITY RUSH 시리즈, 더 라스트 가디언, 하이에나(드라마), 노량 등에 비슷한 모양의 폰트가 사용되고 있는데, 태영화체가 아니라 아시아소프트의 a시네마체이다.

이러한 세로쓰기 자막 역시 예전 일본 극장가의 영향을 받은것이고, 태영화체 역시 이 일본 극장가에서 세로쓰기로 사용되었던 자막 글씨체와 상당히 흡사하다. 좀비잡는 건슈팅게임 더 하우스 오브 더 데드 1, 2의 일본어판은 자막 연출이 오른쪽에서 세로쓰기로 되어있는데, 흡사 극장 자막에서나 볼법한 글씨체다. 아마 극장에서 틀어주는 서양 B급 호러무비같은 분위기를 강조하기 위해서인것으로 보인다.

필름에 손을 대기 힘든 영화제 상영작들은, 별도의 자막 전용 프로젝터를 극장 내에 설치해서, 자막을 화면 오른쪽에 세로쓰기로 띄운다. 극장 구조상 가로쓰기로 자막을 띄우기 매우 힘들기 때문.

가로쓰기로 띄우는 영화제 및 영화관도 없진 않다. 한 예시로 영화의 전당의 시네마테크에서는 영사실 앞에 별도의 자막 프로젝터를 설치해두었고, 별도의 자막 영사가 필요한 경우에 가로로 자막을 내보내고 있다.

때문에 세로쓰기 하는 영화제 상영작 자막은 공간 문제로 번역에 고충이 많다고 한다. 이렇게 자리잡기까지 시행착오가 많았던 편. 현 시점에서 영화제 자막 프로젝션 프로그램은 1998년 부천국제판타스틱영화제 측에서 만든 큐타이틀이라는 프로그램이 대세다. 큐타이틀 제작자 인터뷰로 한국에서 국제영화제가 막 정착한 1990년대 중후반엔 이 문제 때문에 고생했다고 한다. 심지어 변사 시스템까지 동원했다는 얘기도 있을 정도.

대한민국에서는 외국 영화, 할리우드 블록버스터 및 고연령층 대상의 애니메이션 영화 상영에서는 자막 상영이 일반적이며, 많이 선호되고 있다. 한국어 더빙은 저연령층 대상의 애니메이션이나 시각장애인용 배리어프리 영화가 아닌 이상 선호되지 않는 편이다. 이는 극장 상영뿐만 아니라 IPTV넷플릭스 같은 OTT 서비스에서도 마찬가지.

그런데 자막이 일부 국가에서는 별로 환영받지 못한다. 일본만 해도 외화나 애니메이션 상영 시 자국어 더빙을 하는 것을 선호하고 있다. 일본어 자막은 일본어의 특성 상 한자가 많이 들어가는 편이라 가독성에 어려움이 있으며 기본적으로 자막이 두 줄이상 초과하는 경우가 많기 때문에 자막보다 더빙이 선호되는 편이다. 무엇보다 게임, 애니메이션 등의 자국 매체가 활발하게 제작되는 문화강국답게 자국어 더빙의 인기가 높은 편이고 팬층도 탄탄하며 더빙기술이 발달하면서 자연스럽게 더빙을 선호하게 된 것도 있다. 그리고 일본어를 읽으려면 한자의 읽는 방법을 외워야 하는 것이 많다. 그래도 서양권 외화나 드라마는 자막 상영도 어느 정도 선호받고 있다.

미국에서는 대체로 글자를 읽기 귀찮아하는 관객이 많다. 영상 자막은 일반적인 독서와 달리 상당히 빨리 지나가는 경우가 많은데, 풀어쓰기 형태의 알파벳 자막은 이런 상황에서 읽는 데 상당한 부담이 된다. 특히 영국과 미국은 문해율이 40위권으로 선진국치고는 약간 낮은 편이고 난독증 인구 비율도 최대 10% 정도로 꽤 높기 때문이다. 그리고 미국은 할리우드를 위시한 세계 영화 시장을 지배하고 있는 국가인 점도 있다.

때문에 미국은 자국어 더빙의 선호도가 높다. 자막 상영을 선호하는 사람도 있지만 이들은 특수하거나 마이너한 장르[8]를 주로 보는 사람들이며, 대중적인 장르에서 자막만 깔면 흥행을 포기해야 한다. 이런 성향때문에 봉준호 감독이 골든글로브 시상식에서 말한 '1인치 정도 되는 자막의 장벽을 뛰어 넘으면 여러분들도 훨씬 더 많은 영화를 즐길 수 있습니다.'가 업계에 파장을 남기기도 했다.

하지만 같은 영어권 국가라도 영국은 자막 선호도가 높으며, 다른 유럽 국가들은 국가에 따라 다른데, 독일, 프랑스, 러시아, 이탈리아에서는 자국어 더빙을 선호하지만[9], 핀란드네덜란드, 스웨덴에서는 대한민국처럼 자막 상영을 선호하며 영어로 나오는 경우엔 국민 대부분이 모국어에 준하는 영어를 구사하는 만큼 그냥 영어 자막으로만 보거나 아예 자막 없이 그냥 보기도 한다. 핀란드의 사례 유럽 국가에서의 자국어 더빙 참고로 북유럽의 성우 더빙 현황은 한국보다도 처참하다.

어찌보면 전세계에서 한국이 가장 자막에 거부감이 적은 영화 관람 문화를 가지고 있는데, 여러가지 이유가 있을 수 있다. 한국인들이 읽고 이해하는 능력은 상당히 높은 편에 속한다. 한글이라는 문자 역시 자막에 유리하다. 로마자키릴 문자 등은 모든 문자를 풀어 쓰기 때문에 단어의 길이가 긴 편이다. 특히 독일어러시아어의 경우에는 특유의 조어법으로 인해 매우 긴 단어가 많다. 단어가 길어질 경우 한눈에 잘 들어오지도 않아 빠르게 읽기 힘들고, 가용 공간에도 제약이 생기기 때문에 자막 활용이 불리해 진다. 한자의 경우에는 한자 하나하나가 뜻을 가지고 있기 때문에 한글보다 압축성 자체는 좋은 편이다. 그러나 정자체 한자는 획수가 복잡하고 모양이 비슷한 글자들이 많아 빠르게 읽기 어려우며, 글자가 뭉개지지 않게 하려면 글자 크기를 키워야 해 공간상 제약이 발생한다는 문제를 안고 있다. 획수를 줄인 간체자를 사용한다 할 지라도 띄어쓰기를 하지 않기 때문에 가독성이 비교적 떨어지는 편이다. 반면 한글은 한자보다는 압축성이 떨어지지만, 자모를 모아 쓴다는 점에서 로마자나 키릴 문자와 같이 풀어 쓰는 문자들보다는 압축성 측면에서 강점을 보인다. 특히 한자만큼 글자가 복잡한 것도 아니고 자잘한 오타가 난다 한들 앞뒤 문맥으로 금방 내용을 파악할 수 있다. 또한 띄어쓰기가 있다는 점 역시 가독성 측면에서 유리하다고 할 수 있다.[10]

이 때문인지 한국 사람들은 세계에서 자막에 거부감이 가장 적은 수준을 넘어 아예 외화 상영 시 자막 상영을 더빙보다 압도적으로 선호한다. 특히 서양인이 한국어를 하는 모양새 자체를 굉장히 낯설어 하며, 배우의 진짜 목소리를 듣고 싶어하는 사람이 많은 것도 자막 선호 이유 중 하나다. 일본 애니메이션에 더빙을 하게 되면 아동용이 아닌 이상 유치하다는 의견을 가진 사람도 많고, 이 역시 일본 원어 성우의 목소리를 듣고 싶어하는 사람이 있기 때문이다. 또한, 10~20대의 미소녀 여성 캐릭터에 한국 성우의 목소리를 입히면 일본 성우보다 다소 낮은 목소리 톤의 연기를 듣기가 불편하다는 의견도 있다.

한국 영화를 한국 국내에서 상영시 자막을 띄우는 일은 상당히 드물다. 당연한 얘기지만 한국 영화는 한국인 배우가 나와 한국어 대사로 연기하기 때문에 특수 케이스를 제외하면 굳이 자막을 넣을 필요가 없다. 다만 워낭소리처럼 사투리 대사가 많이 들어가는 특수한 경우는 자막을 달기도 하고, 청각장애인배리어프리영화 혹은 국내 거주 외국인을 위하여 상영하는 경우에는 자막 상영을 하기도 한다. 서울 외국인 영화관에선 한국 영화들을 모두 외국어 자막으로 내보내고 있다.

가끔 영화의 대사를 필요 이상으로 의역하거나 축약하여서 번역자가 까이기도 하는데 이도 자막 탓인 경우가 종종 있다. 집에서 보는 DVD블루레이, VHS, 인터넷 영상에 들어가는 자막들은 얼마든지 보는 사람이 원한다면 되돌려 보기를 할 수 있다. 반면 영화관에서는 관객들이 되돌려 보기를 할 수 없으므로 빠른 시간 내에 읽을 수 있도록 너무 길게 번역하면 곤란하다. 그래서 길게 번역하는 것은 물론 주석까지 달아놓을 수 있는 인터넷 영상 자막 등에 비하면 영화관용 자막은 길이의 제약이 심한 편.

DVD에 들어가는 자막은 VobSub라는 포맷을 사용한다. 자막을 추출하면 idx 파일과 sub 파일 두 가지가 나오는데, idx는 각종 설정과 자막 싱크를 잡아주는 설정 파일이고, sub 파일은 실제 자막이 이미지 파일로 저장되어 있다. DVD나 블루레이를 PC에서 플레이어를 통해 재생할 경우 자막 글꼴이나 기타 다른 설정이 불가능한 이유가 바로 이것.

4.2. 방송

케이블 방송이나 인터넷 스트리밍 방송에서는 주로 성우를 기용하기에는 너무나 돈이 부족해서 회사 형편상 성우를 기용하기 힘들어서 더빙 대신에 한글 자막을 입혀 콘텐츠를 방송을 해주는 경우가 많다. 이외에도 해외 재송신 채널의 경우에는 규제 때문에 자막으로 방영한 경우가 있다. 예외적으로 지상파 방송의 경우 돈도 전속 성우도 매우 넘쳐나기 때문에 외국 콘텐츠에 성우 더빙을 하여 방송하는 경우가 많다.

이상하게도 애니메이션 매니아들은 방송에서 방영되는 애니메이션 자막의 번역은 전부 다 질이 나쁘다는 편견 및 고정관념을 가지고 있다. 특히 이러한 현상이 두드러진 것이 바로 투니미떼.

티캐스트 계열 채널이던 FOXlife(현 CH.ever)에서는 인터넷 아마추어 자막가들을 선발해 정식 번역작가로 데뷔시켜주는 이벤트를 시행한 바 있다. 정식 번역가들보다 DC에 상주하는 사람들의 번역퀄이 더 나을 수도 있다는 걸 보여준다.

영미권에서는 자막의 비중이 매우 적다. 미국인 시청자들이 자막보다는 더빙에 더 익숙하다는 점도 이유고, 자막의 주 수요층이 영어 비원어민이나 청각장애인이기 때문이기도 하지만, 인종차별의 여지가 있다는 점도 큰 이유로 작용한다.

영미권 매체(특히 미국)에서는 비백인계 인사가 영어로 인터뷰를 할 경우, 아무리 발음이 원어민에 준하게 좋아도 자막을 덧붙이는 경우가 많다. 동양계와 히스패닉, 아랍계 등이 여기에 자주 당한다. 우사인 볼트도 여기에 당한 전적이 있다. #

물론 백인이라도 유럽계거나 스코틀랜드계거나 미국 남부 촌구석의 사투리가 심한 사람이라면 적당히 알아들을 만한데도 자막을 덧붙이는 경우가 있지만, 비백인계보다는 그 수가 현저히 적다. 이는 아직 고질적으로 남아 있는 인종차별 행위에 해당한다.

2020년대 기준으로는 많은 비판을 받아 어지간히 발음이 나쁘지 않다면 자막을 집어넣는 경우가 줄긴 했지만, 아직도 완전히 사라지지 않은 관행이다. 만약 본인의 영어 발음이 원어민스럽지 않은데 이를 굳이 고칠 생각이 없다면, 정도의 차이는 있을지언정 이와 유사한 텃세나 차별을 어느 정도 당할 수 있음은 감안해야 한다.

중국이나 대만, 홍콩의 방송사는 자국에서 제작된 드라마나 애니메이션, 영화일지라도 자막을 삽입한다. 광동어일부를 제외한 대부분의 중국어 방언은 순전히 구어로만 쓰이지 문어로 쓰이는 일은 극히 적다. 즉 자막으로 나오는 중국어는 표준중국어나 방언이나 같다. 다만 일부 비한족 소수민족을 위해 표준중국어로 나오는 대사에 소수민족 언어 자막을 제공하는 경우는 흔하다. 방언으로 나오는 대사면 표준중국어 자막을 삽입한다. 이는 지상파 방송사라도 예외가 없다.

중국과 대만 모두 국정 초기에 강력한 표준중국어 보급 정책을 펼쳤기 때문에 대부분의 사람들이 표준중국어를 읽거나 알아들을수는 있다.하지만 중국어권은 각 지역, 국가별로 방언과 언어가 다양하다. 중국은 보통화말고도 오어, 광둥어, 상어, 민어, 객가어 등 보통화와는 외국어 수준으로 다른 다양한 지역방언들이 사용되고 있고, 티베트어, 몽골어, 조선어, 몽어, 위구르어, 카자흐어 등 소수민족 언어도 다양하며, 대만의 경우에는 국토가 작기는 하지만 대만어, 객가어, 대만 원주민들의 언어들이 사용되고 있기 때문에 억양에서 영향을 많이 받아 자막은 필수이다.

때문에 해당 지역의 언어, 방언의 영향을 받은 채로 표준 중국어를 발음하는 사람들이 많아 표준어로 말을 하더라도 빠르게 말하면 서로 잘 알아듣지 못하는 경우가 발생하기 때문에 자막을 삽입하는 것이다. 또한 같은 이유로 성우들의 깨끗한 발음을 입힌 후시녹음도 활발히 이루어진다. 말 그대로 1970년대 한국에서 영화를 만들 때처럼 먼저 촬영을 하고 거기에 성우들이 더빙을 하는 것이다.

4.3. 유튜브

유튜브에도 영어를 비롯한 다국어 자막이 들어가는 경우가 많다. 특히 K-POP 스타가 등장하는 영상(뮤직비디오·출연한 예능 등)에는 영어 자막을 제공해주는 것이 거의 불문율이 되어있다. 이는 K-POP의 인기가 국내나 동아시아를 넘어 전 세계적으로 인기를 끌고 있기 때문에 그만큼 해외로부터 유입된 외국인 팬들도 많기 때문이다.

영어를 비롯한 다국어 자막이 없으면 댓글창에 'English subtitles please.'와 같이 영어 자막이라도 달아달라는 요청이 쇄도하게 된다. 일례로, KBS 공식 유튜브 채널의 6시 내고향 영상들 중에서 TWICE 출연분은 예외적으로 영어 자막을 제공하였을 정도이다. 참고로, KBS 공식 유튜브 채널은 WORLD 채널을 제외하면 영어를 비롯한 다국어 자막을 제공하지 않는다.

최근 들어서는 굳이 K-POP 영상 뿐만 아니라 개그 유튜버나 Prank류 영상, 리액션 비디오, 커플 유튜버, Vlog 등지에도 해외 유입 유저가 많이 늘어났는지 영어 자막을 넣는 경우가 많아졌다.

중화권의 유튜버들도 방송에서 중국어 자막을 넣는 것과 마찬가지로 대부분 본인들의 영상 컨텐츠에 중국어 자막을 넣는다. 자국어 자막을 넣는 이유는 상단 참조.

4.4. 자막파일 확장자

4.4.1. 설명

의뢰를 받고 번역을 하는 프로 번역가 외에 순수한 취미로 애니메이션이나 영화자막을 제작하여 공개하는 아마추어 자막 제작자들도 있다. 특히 지금의 한국 인터넷에서는 자막이라 하면 이들이 만든 외국 드라마나 영화, 애니메이션 등의 동영상 파일을 위한 캡션 파일을 의미한다.

한국의 경우 자막 파일의 확장자는 대개 *.smi이다. *.smi 자막의 경우는 마이크로소프트가 청각 장애인들을 위해 만들었지만 거의 한국에서만 쓰이기에 일부 외국 재생 프로그램의 경우 *.smi 자막을 지원하지 않는 경우가 종종 있다. 바이두 클라우드 스트리밍의 경우 *.srt만 지원한다. 외국에서는 주로 *.srt나 여러가지 효과를 사용할 수 있는 *.ass자막을 사용하는 편. 국내에서는 *.srt, *.ass 확장자를 거의 극소수만 쓰며 정작 이러한 확장자를 악성코드로 오해하는 사람이 많아 굳이 변환 프로그램을 써서 *.smi로 변환하는 사례가 많다.

자막의 주 수요자들은 당연히 해당 언어를 모르는 사람들이다. 그렇기 때문에 해당 언어를 이해할 수 있는 사람들은 대부분 자막을 찾지 않는다. 이런 사람들이 자막을 찾는 경우는 자신의 어학 수준을 벗어난 난해한 말이나 전문 용어가 끝없이 나오는 영상물을 접하거나, 저격을 하기 위해 오역을 찾는 경우다. 전자는 몰라도 후자는 아마추어 자막 제작가들에겐 공포의 대상.

해당 언어를 이해하는데 문제가 없는 사람이 그렇지 않은 사람과 영상물을 보게 되면 대부분 자막을 틀고 보는데 이런 경우에선 의도치 않게 오역을 찾게 된다. 예를 들어 이민 2세대 자녀와 1세대 부모가 함께 드라마나 영화를 볼때. 그 나라에서 나고 자란 아이는 완벽히 해당 언어를 구사하지만 부모는 (특히 직장을 가지지 않은 부모) 직독직해를 잘 못하는 경우가 많다.

간혹 이런 아마추어 번역가들의 센스 넘치는 의역, 혹은 오역초월번역으로 명대사가 되기도 한다. (대표적으로 충공깽, 존나좋군 등.) 자세한 내용은 자막테러 참고.

4.4.2. 형식


사실 해외에서는 SMI 형식의 자막은 잘 사용하지 않는다. 간단한 형식의 자막은 SRT를 주로 사용하며, 그 외에 SSA(Sub Station Alpha), SSA를 확장시킨 ASS(Advanced SSA)라는 방식을 사용하기도 한다.

*.ssa와 *.ass의 기본규격은 똑같지만, *.ass가 약간 더 추가기능이 있는 편. *.smi와 *.ssa/*.ass의 차이점은 *.smi 방식은 만들기 '비교적' 간단한 편이라 빨리 만들 수는 있지만, 특수효과를 내는데 제한이 있으며 낼 수 있다 해도 글자 하나하나를 일일이 노가다해야 되기에 꽤 시간이 드는 편이다. *.ssa/*.ass는 만들기는 좀 어렵지만 그만큼 편집이 편한 편이며 실력만 있다면 시간은 좀 걸려도 다양한 효과를 낼 수가 있다.하지만 투자 시간은 엄청나다. 혹자는 1분짜리 영상에다가 각종 효과를 넣은 자막을 만드는 시간이 애니메이션 2~3편 자막 넣는 것보다 더 걸린다고 한다. 굳이 툴로 비교하자면 *.smi는 메모장 같은 워드, *.ssa/*.ass는 포토샵 같은 그래픽 툴.

해외에선 *.ssa/*.ass가 널리 사용되고 있다. 다만 제작 시간이 *.smi 방식보다 오래 걸리기 때문에 보통 개인이 아닌 팀 단위로 움직이며(번역, 편집, 제작, 프로그래밍, 검수 등), 팀으로 움직이니 여러가지 효과를 분담해서 제작하기 때문에 자막이 정말 무서운 수준으로 퀄리티가 좋다. 쓸데없이 좋아서 장인정신이 느껴질 정도. 삽입곡에 가라오케식 자막은 기본이고, 타이틀까지 비슷하게 자막을 삽입하는 한편 어떤 자막은 화면 뒤에 등장하는 간판이나 게시판 위에 직접 자막을 달아버리기도 한다.

외국에서 올라오는 자료들 중에는 내부에 *.ass 자막을 내장한 영상들이 많다. DVD나 스트리밍 사이트에서 그대로 추출한 자막의 경우 .srt 형식을 사용하는 경우도 흔하지만, 직접 번역 작업을 하거나 좀 수준있는 작업을 할 때엔 *.ass를 사용하는 편이다.
이런 *.ass 자막은 *.mkv 포맷에 자주 들어가곤 하는데, 그 이유는 컨테이너처럼 파일을 담아둘 수 있는 *.mkv 특성상 내부에 폰트나 자막을 같이 합칠 수 있기 때문에 폰트 없이 재생하면 깨지는 *.ass 자막 파일과 궁함이 잘 맞기 때문이다. 단 자막을 수정하고 싶은 경우 *.mkv 파일 자체를 다시 만들어야 한다는 단점이 있다.
국내엔 SAMI에 밀려 많이 쓰이지 않는 포맷이지만 최근엔 *.ass 자막에 대한 관심이 높아져 국산 플레이어도 대부분 *.ass 자막을 잘 지원한다. 다만 아무래도 주로 외국에서 많이 쓰이는 자막포맷이다 보니 국산 플레이어로 재생이 잘 안된다 싶으면 MPC-HC등의 외산 플레이어로 돌려보면 잘 나온다. 가령 다음팟 플레이어의 경우에는 2015년 1월 5일 이전버전 (1.6.57946 버전 미만)에서는 자막색과 배경색이 어우러지지 않는다던가 표시에 문제가 있는등의 버그가 있다. 그리고 VLC같은 경우에는 크로스 플랫폼 지원 문제 때문에 VSfilter를 냅두고 딴 필터를 쓰기 때문에 나오긴 나오는데 문제가 좀 있다.

국내에선 대부분 개인 제작이기 때문에 시간적인 문제로 *.ass/*.ssa 자막을 이용하는 사람은 드물지만 있다. 예로 죠죠의 기묘한 모험 애니메이션 시리즈를 찾아보면 장인정신으로 만든 자막이 있다.

ass는 알파벳의 첫글자인 a로 시작하는 만큼 파일을 이름순으로 정리할때 높은 확률로 상단에 위치하며 비디오 파일 중에 상단에 올라갈 확률이 높은 avi 확장자 보다도 앞서기에 파일 목록에서 자막 파일이 비디오 파일보다 앞서는 효과가 나온다. 이는 smi 자막이 대다수 사용빈도가 높은 비디오 파일 확장자보다 뒤에가는 것과 대조를 보인다. 보통 자막 파일보다는 비디오 파일이 우선이다. mkv 파일의 일반적인 내부 배치 순서만 봐도 딱 이렇다. 때문에 비디오 파일이 자막 파일보다 상단에 위치하는걸 선호하는 경향이 높기에 파일 정리 면에서는 ass 확장자가 smi 확장자보다 불편한 면이 있다.

idx/sub 방식의 자막도 있는데, DVD에서 많이 쓴다. 자막이 텍스트가 아닌 이미지 파일로 되어 있어서 용량이 크다.

WebVTT(Web Video Text Tracks Format, *.vtt)는 HTML에서 사용되는 자막포맷이다. <video>태그 내 <track> 태그를 통해서 사용한다.# 유튜브에서 사용되는데, 문제는 일반 비디오 플레이어는 이 자막의 스타일 기능을 제대로 지원하지 않는다. 그렇기 때문에 srv3 형식으로 다운받아서 이 프로그램으로 역변환해야한다.

4.4.3. 자막 편집기, 자막 변환 사이트


인코더에 자체 자막을 만들 수 있는 기능이 달린 것도 있다.

몇몇 웹앱/웹사이트에서는 자막 형식을 전환시켜주기도 한다. (예, #)

4.4.4. 좋지 않은 자막

보통 신작 드라마나 애니 릴이 뜨면 많은 오역과 오타를 내더라도 빠른 속도로 번역해서 올리기 위해 많은 부분을 직역으로 때우는 경우가 많다. 대본도 없이 듣기에 의존해서 대사를 번역하는 것도 힘든데 자막 싱크까지 맞춰야 하는 작업은 상상을 초월하는 난이도다. 자막제작은 결코 만만한 일이 아니다.

몇몇 개념 제작자들은 방영 다 끝나면 텍스트 파일로 직역만으로는 이해 못하는 부분을 설명해주기도 한다. 특히 패러디가 나오는 경우나 문화적 배경을 모르면 이해 못할 때.
[[파일:rJqrQvk.jpgheight=200]]
[[파일:fURz1dq.jpgheight=200]]
사우스 파크 9x06 자막. 거의 10년이 지난 시점에서도 뒷말이 많은 자막이다.

간혹 일부 자막 제작자들은 위의 예시처럼 자막에 자신의 사적 감상을 써넣기도 한다. 2000년대까지만 해도 거의 유행이라 할 정도로 이런 자막들이 즐비했으며, 요즘에는 많이 줄었지만 일부 초짜들에겐 아직도 이런 경향이 있다. 대체로 이런 자막은 보는 사람의 감상을 방해할 뿐더러 보기에 상당히 거슬리기 때문에 혹평받는다. 심지어 어떤 자막은 스포일러를 대놓고 써넣으니 매우 난감해진다.

그 외에도 아이캐치나 오프닝 이 후의 광고 부분에 대개 자막 제작자 자신의 이름과 함께 무단 수정을 금한다는 멘트를 넣는데, 웃긴 게 오역이 많은 자막일수록 이런 게 종종 발견된다는 것. 반면 이름 좀 있는 유명 자막 제작자들은 간단하게 자신의 블로그 주소만 쓰거나 오역 등의 지적사항이 있으면 홈피에 리플로 알려달라고 한다.

그 외에도 저작권법과 2차 저작물의 무단유포 운운하며 '막대한' 손해배상을 청구하는 민사소송에 연루될 우려가 있다는 내용을 담기도 하는데 거짓말같지만 이 말은 사실이다. 하지만 불법자막 제작부터가 저작권을 어기는 것이니 자신이 고소미 먹을 것을 감수하지 않는 한 실제로 소송을 걸기는 매우 힘들 것이다.

"짐작으로 만들어서 자막의 뜻이 맞지 않을 수도 있습니다. 일어는 모릅니다"라는 멘트를 넣거나 자막 중간중간에 제작자가 막히는 대사들은 죄다 '잘 모르겠습니다' 또는 '?????' 같은 걸 넣는 사람도 있다. 더불어 원작을 한번이라도 찾아보면 충분히 제대로 해석할 수 있는 것을 그냥 자기 귀에 들리는 대로 써서 올리는 것도 있다.

그리고 또 일부 자막의 경우, 오역이 적더라도 한글 맞춤법이 난장판이라거나 오타를 남발하는 경우도 있다. 외국어를 배우기 전에 국어를 먼저 배우자. 정 모르겠으면 인터넷에 있는 맞춤법/문법 검사기에 한번 세탁이라도 하고 오자.

대화 중에 뻘쭘해서 말이 끊어질 때 '...'나 깜짝 놀랐을 때 '?!', '!!' 등 인물의 감정을 삽입하는 자막도 은근히 보이는데 이런 감정이나 분위기는 화면과 진행으로 충분히 알 수 있는 것이기 때문에 괜히 토를 달아서 자막으로 눈길이 한번 더 가게 되어 영상 감상에 방해가 되는 요소이기도 하다. 다만 죠죠의 기묘한 모험 같이 효과음 하나하나가 아예 이 작품을 상징하는 아이덴티티가 된 경우엔 오히려 필요할 수 있다. 대표적으로 "고고고고"나 "즈큐우우웅"이 있다. 특히 기합소리의 경우 "오라오라"와 "무다무다"는 빠질 수 없다.

4.4.5. 좋은 자막

자막에서는 영상 싱크도 되게 중요한 부분이다. 자막이 없거나 자막 자체가 옛날에 만들어진 고전 영화가 아니고서야 영어 자막을 먼저 받아서 그걸로 번역을 하는 것이 정석으로 활용되고 있다.

등장인물들이 하는 대사나 영상에 나오는 글자들은 당연히 번역을 해야 하고, 그 외 본인이 만들었음을 알리는 주석이나 자막 외에 꼭 필요하지 않은 불필요한 사담은 넣지 않는 것이 좋다. 예: 위 사우스파크의 사례처럼 캐릭터에 대해 본인의 생각을 늘어놓는 자막. 이유는 당연히 몰입을 방해하기 때문. 주석을 자막과 별개로 따로 올리는 경우는 나쁘지 않다.

일단 번역에 대해서는 직역의역 어느 쪽도 틀린 것이 아님을 명시해야 한다. 상황에 따라서 더 나은 방식을 사용하는 것이 좋은 번역이다. 번역을 하기가 어려운 경우에는 프로번역가가 아니기 때문에 차라리 괄호를 치고 의미를 설명하는 방식도 어느 정도는 용인되는 편이다.

좋은 자막을 위해서는 당연히 해당 컨텐츠의 언어를 잘 알아야겠지만 해당 컨텐츠를 잘 아는 사람이 더 좋은 자막을 만들 수 있다. 캐릭터들 사이에 높임말, 반말 중에서 어떤 말이 사용되는지, 해당 단어가 해당 작품에서 어떤 식으로 사용되고 있는지 등 그 작품을 모르는 상태에서 작품을 온전히 이해하긴 어렵기 때문.

번역 실력이 수준 미달이라면 오히려 번역을 안하는 것이 도움이 된다. 자막 제작자들은 없는 자막을 찾아서 만들지 이미 돌고 있는 자막은 잘 건드리지 않기 때문. 잘못된 번역이 돌아서 후에 작품을 접하는 사람들이 피해를 보는 경우들이 허다하게 많다.

영어 자막은 기본적으로 효과음이나 배경 음악에까지 자막 처리가 되어 있는 경우가 많다. 이를 CC(Closed Caption) 또는 SDH (subtitles for the d/Deaf and hard of hearing.)라고 칭하며 [11], 청각장애인 등 소외되기 쉬운 계층에게 정확한 정보를 전달할 수 있도록 한 자막이다. 우리나라보다는 해외에서 더 흔하다. [12]

4.4.6. 여담

외국인의 저작물은 대한민국이 가입 또는 체결한 조약에 따라 보호된다.
②대한민국 내에 상시 거주하는 외국인(무국적자 및 대한민국 내에 주된 사무소가 있는 외국법인을 포함한다)의 저작물과 맨 처음 대한민국 내에서 공표된 외국인의 저작물(외국에서 공표된 날로부터 30일 이내에 대한민국 내에서 공표된 저작물을 포함한다)은 이 법에 따라 보호된다.
③제1항 및 제2항에 따라 보호되는 외국인(대한민국 내에 상시 거주하는 외국인 및 무국적자는 제외한다. 이하 이 조에서 같다)의 저작물이라도 그 외국에서 대한민국 국민의 저작물을 보호하지 아니하는 경우에는 그에 상응하게 조약 및 이 법에 따른 보호를 제한할 수 있다. <개정 2011.6.30.>
④ 제1항 및 제2항에 따라 보호되는 외국인의 저작물이라도 그 외국에서 보호기간이 만료된 경우에는 이 법에 따른 보호기간을 인정하지 아니한다. <신설 2011.6.30.>

제136조(벌칙)
① 다음 각 호의 어느 하나에 해당하는 자는 5년 이하의 징역 또는 5천만원 이하의 벌금에 처하거나 이를 병과할 수 있다. <개정 2011.12.2.>
1. 저작재산권, 그 밖에 이 법에 따라 보호되는 재산적 권리(제93조에 따른 권리는 제외한다)를 복제, 공연, 공중송신, 전시, 배포, 대여, 2차적저작물 작성의 방법으로 침해한 자
2. 제129조의3제1항에 따른 법원의 명령을 정당한 이유 없이 위반한 자||

5. TV 프로그램 자막

TV 프로그램 자막은 표시 여부를 결정할 수 있는지에 따라 자막을 끌 수 없는 열린 자막(Open Caption)과 끄거나 켤 수 있는 폐쇄 자막(닫힌 자막, Closed Caption)으로 나뉜다.

열린 자막은 영상 자체에 자막이 표시되는 자막을 말한다. 주로 더빙이 되지 않은 외화/애니메이션, 텔레비전 뉴스나 쇼 프로그램, CF 등에서 사용한다. 뉴스의 경우 아나운서와 캐스터의 음성에 의한 정보 외에도, 보다 정확하고 요약된 정보를 전달하기 위해 사용된다. 동영상 인코더 등에서 입혀진 자막도 여기에 해당된다.

폐쇄 자막은 자막을 볼 수도, 보지 않을 수도 있는 자막이다. 영어로는 Closed Caption이라고 하고, 보통 Caption으로 줄여 부른다. 프로그램 시작 시 좌상단 혹은 우상단에 표시되는 청각 장애인을 위한 자막방송이 이에 해당한다. 유튜브 등에서 번역 자막 표시용도로 사용하기도 한다. SMI, SRT 등의 형태의 자막도 여기에 해당된다. 음성다중 설정이 되는 아날로그 TV수상기와 모든 디지털 TV수상기에서 음성다중 설정을 통해 청취할 수 있다. 폐쇄 자막 기능이 있는 구형 TV들은 어째서인지 영문 캡션(NABTS, ASCII)만 가능한 경우가 대부분이었다.

폐쇄 자막은 다시 미리 준비된 자막(Pre-recorded Closed Caption)실시간 자막(Real-time Closed Caption)으로 나뉜다. 미리 준비된 자막은 보통 영화 자막 등의 용도로 미리 제작해 영상과 함께 배포하는 자막이며, 실시간 자막은 보통 TV방송 등의 청각장애인용 자막이나 스포츠 중계 등에서 사용되는 자막이다.

참고로 국내방송의 자막규격은 Line21(EIA-608)이며 SBS에서 이것을 변형한 포맷으로 알려져 있다. KS X 1001 인코딩을 사용한다. 따라서 수상기가 한글 채움 문자 표현을 지원 안하는 이상 표기 못하는 글자가 좀 많다.

5.1. 정보 전달용 자막

파일:external/farm6.staticflickr.com/21060380508_52d76035ab.jpg
증권방송에서 정보를 전달하는 자막

보도 프로그램 등에서 핵심 정보만 간결하게 전달하고자 할 때 자막을 사용하고 있다. 김영희가 1995년에 일본식 자막 관행을 이식하기 전엔 예능 프로그램에서도 출연자 소개나 방송국 주소 같이 강조할 필요가 있는 특정 사항에 집중하여 자막 제작을 해왔다.
파일:external/static.theappl.com/2944289319_41ca3482_4.jpg
가사를 전달하는 자막
[13]

그 외에 음악 프로그램이나 만화의 오프닝곡, 엔딩곡을 소개할 때는 가수의 빠른 곡으로 인해 곤란을 겪는 시청자, 듣지 못하는 시청자를 위해서 가사 자막을 내 보내고 있다. 음악 프로그램에서는 1997년부터 가사 자막이 도입되었으며 예전에도 자막을 보여주긴 했지만 이는 소수에 불과했다. 전국노래자랑은 2000년[14], 가요무대는 1985년 첫 방송 이후에 자막을 놓기 시작했다.

5.2. 청각장애인 대상 자막

방송사업자는 장애인의 시청을 도울 수 있도록 한국수어폐쇄자막화면해설 등을 이용한 방송을 하여야 한다.
- 방송통신위원회 방송법 제69조 제8항

방송 청취에 애로사항이 있는 청각장애인들을 보조하기 위해서도 자막을 사용하는데 이 경우에는 보통 폐쇄 자막(Closed Caption) 방식을 활용한다. 청각장애인용으로 사용할 때에는 보통 "(문 열리는 소리)", "(총 소리)" 등 효과음, 배경음도 자막으로 표시한다. 별도의 장비가 필요한 경우가 대부분이지만 요즘은 TV 자체에 이 청각장애인용 자막을 수신 받는 기능이 딸려 있는 경우가 많다.

국내 TV 방송사들은 관계법령에 의거하여 일정비율 이상의 프로그램에 자막방송을 제작·편성할 의무를 지닌다. 지상파, 종편, 보도전문채널은 방송되는 모든 프로그램에, 그 외 유료방송사(PP)는 일정 규모 이상일 경우 50~70%의 편성비율 의무가 부과된다. 이를 위해 속기사가 직접 방송을 보는 즉시 자막을 치는 실시간 자막을 주로 제공한다. 미리 입력한 후에 내보내는 경우도 있으나, 국내 방송환경상 그 비율이 그리 높지 않다. 보통 속기사들이 치는 자판은 속기 자판이라고 불리며, 속기용으로 특수하게 만들어져 있다. '공병우 세벌식 자판'과 유사한 부분이 있긴 하지만 생긴 것이 딴판이고, 국가표준이 사실상 존재하지 않아 제조사 별로 제각각이다.

하지만 최대한 빠르게 치려고 노력함에도 불구하고 방송 속도를 못 따라가거나 중간에 문장을 생략하는 일이 생겨 비판받기도 한다. 청각 장애인을 두 번 울리는 TV. 이러한 저퀄러티 자막이 나오는 것도 이유가 있는데 우선 방송사들이 자막 제작업체에게 하청을 내주고 이들 속기업체들이 자막을 만들고 있지만 하청비용이 낮기 때문에 업체에서 아직 제대로 숙련되지 않은 인턴들에게 턱없이 낮은 임금을 주고 자막제작에 투입시킨다.

이 때문에 오탈자가 속출될 수밖에 없고, 그나마 인턴들이 숙련되어서 정직원이 된다 해도 업무조건이나 연봉수준이 나쁘기 때문에 숙련된 인원들이 방송자막일을 그만두고 업무조건이 좋은 타 관공서 등으로 빠져나오는 것이 태반이다 보니 악순환이 반복되는 것이다. 관련기사 이런 상황을 해결할 대안으로 드라마에 한정해서 본방송 때 대본을 자막화하여 송출하는 방법이 대안이 될 수 있으나, 이러면 엠바고 관리가 제대로 되지 않는다면 스포일러 문제가 발생하는지라...

이마저도 방송국별로 퀄리티가 천차만별이다. SBS투니버스는 일부 프로그램에 한해 본방송때부터 싱크를 맞추어 송출하고, tvN 계열은 본방송 때는 자막을 송출하지 않지만 재방송때부터는 싱크를 맞추어 송출한다. 반면 KBSMBC재방송 때에도 본방과 마찬가지로 싱크가 밀린 채로 송출된다. 그나마 지상파 계열의 케이블 채널에서 재방송할 때에는 전반적인 싱크를 당기는 방법으로 조정을 하지만 상대적으로 부정확한 편.

또한 경우에 따라서는 같은 프로그램을 타 방송사에서 송출할 때 작업한 폐쇄 자막까지는 연동되지 않는 경우도 있는 듯 하다. 지상파 3사가 자회사 케이블 채널에 프로그램을 공급할 때에는 대체로 이 자막까지도 공유하고 있으나, 그 외의 경우에는 대체로 이 폐쇄 자막은 별도로 제작/송출하고 있다. 신비아파트: 고스트볼X의 탄생부터 순차적으로 KBS 2TV를 통해 방송되는 투니버스의 신비아파트 시리즈의 경우, 투니버스에서 제대로 싱크를 맞춘 자막을 한 차례 작업했음에도 KBS에서 재차 실시간 자막으로 다시 작업하여 싱크가 밀린 버전으로 송출하였다. 반대의 경우 역시, 지상파에서 먼저 송출하는 코드네임 X(애니메이션) 등 非 CJ ENM계열 프로그램 역시도 투니버스 최초 방영시 자막방송이 지원되지 않다가 한참 뒤 재방송에서야 자막방송이 지원되고 있다. 기술적 호환의 문제인지, 자막 작업본 저작권 등 행정절차적 문제인지는 알려지지 않았다.

2020년대 들어서는 OTT를 필두로 한 국산 영화/드라마에의 자막 수요가 발생하였고, 이 영향으로 2023년부터 SBS는 드라마 재방 편성에 대해 붙박이식 '열린 자막(Open Caption)'을 삽입하여 송출하기 시작했다. 기사 앞에서 서술되었듯 SBS는 폐쇄 자막부터 타 지상파 대비 싱크 등에 대해 신경을 써서 제작해오던 터라 이러한 수요에 기민하게 대응할 수 있었던 것으로 풀이된다.

소리를 키울 수 없는 공공장소 등지에서 자막방송이 유용하게 애용되고 있다.

5.3. 비장애인 청취 보조용 자막

자막 처리가 거의 안 되어 있는 1987년 뉴스

여전히 자막 활용이 많지 않은 1999년 뉴스

출연자들의 발언을 자막 처리하지 않은 2006년 다큐

진행자와 내레이터를 제외한 출연자들의 발언을 대대적으로 자막 처리한 2008년 시사 방송

보도, 교양 방송에 출연하는 사람들(각계 전문가, 정치인 모두 포함)의 발언 대부분을 자막으로 고스란히 재현하는 형식. 청각장애인용 자막과 다르게 비장애인들을 대상으로 한다. 모든 발화 상황을 기록해야 하는 청각장애인용 자막과 달리 내레이터, 방송 사회자들의 발언은 아예 자막으로 만들지 않거나, 하더라도 간략하게 핵심 멘트만 남기는 정도에 그친다.

2000년대 후반부터 이런 식으로 자막을 활용하는 관행이 대세가 되었다. 예컨대 극한직업은 방송원년인 2008년부터 전면 자막을 제공했다. 이런 자막은 예능용 자막과 마찬가지로 일본식 관행과 일치한다.

반면에 서양 방송에서는 훨씬 보편적인 청취 보조를 목적으로 자막화를 실시한다. 현장의 음향 상태가 저열하거나, 현지 언어를 능숙하게 구사하지 못하는 외국인, 장애인 및 심한 사투리를 쓰는 지방인들이 인터뷰 대상자로 등장할 때에 한해 시청자들의 이해도를 높이기 위해 자막을 제작한다.

5.4. 흥미를 돋우는 자막

파일:external/file2.instiz.net/23095bbd266ac36ef1e2362ce6a79919.jpg 파일:external/img.ezmember.co.kr/9438c95c20c04ada33fedc986d1a283b.jpg
예능프로그램에서 재미를 부가시키기 위해 사용되는 자막.

예능, 인포테인먼트 방송 등에서는 정보전달보단 재미를 주기 위해 사용되는 경우가 많다. 1990년대 중후반까지는 예능 프로그램에 자막이 들어가는 경우는 단순한 재미보다 인물이 등장하거나 무언가를 소개할 때 쓰는 경우가 많았다.

당시 가요톱10이나 토토즐, 쇼 네트워크 같은 음악프로그램에도 화면 하단에 자막은 인물을 소개하거나 정보를 소개할 때, 혹은 방송사에서 이런저런 이유(예를 들면 뉴스속보나 개표방송, 혹은 이후 방송도중에 로고를 띄우거나 프로그램이 끝난 이후 방송 소개)로 자막을 내보낼 때에 한해서 보냈고, 화면 하단에 노래가사를 자막으로 내보내는 일이 없었다.[15] 심지어 해당일자 방송시작 전과 끝나기 전에 나오는 애국가도 마찬가지로 화면 하단에 자막이 나오지 않았다. 다만 SBS는 개국 초창기부터 애국가 화면 하단에 가사를 자막으로 내보냈고, 가요무대에서도 화면 하단에 가사를 자막으로 보여주는 등 예외가 없던건 아니었다.

김영희가 1995년 <TV 파크>라는 프로그램을 통해 처음 자막을 선보인 이후 일본 예능의 영향으로 자막이 들어가기 시작했다고 한다. 사실상 한국 예능 최초의 예능용 자막인 셈이다.

당시까지만 해도 일본 TV프로그램의 영향을 받거나 받는 수준을 넘어 포맷 자체를 표절하는 경우가 비일비재했다. 이런 관행은 1960년대 중반 정도에 시작해서 90년대에 이르기까지 꽤나 오래 지속된 악습으로 1990년대 이전에는 개편철이 되거나 아이디어가 떨어졌을 때 부산에서 일본TV방송을 보면서 포맷이나 아이디어를 카피했다는 얘기가 전해져내려오며 언론기사로도 심심찮게 나왔고, 1990년대 들어서도 개편철만 되면 일본으로 출장을 보내서 프로그램 포맷을 카피했다는 얘기가 내려왔다. 1990년대 중후반에도 예능 프로그램에서 일본 TV 표절문제로 간간히 언론을 통해서 까인 적이 있다. #

처음에 자막을 예능 요소로 활용했을 때는 반응이 좋지 않았고, TV파크도 4개월만에 시청률 저조로 종영되어서 묻히는듯 싶었지만, 이후 2000년대에 접어들 무렵에 타 예능프로그램에서 자막이 예능 요소로 활용되기 시작하면서 정착된 것이다.

가끔 지나친 자막남발로 인해 오히려 시청에 방해가 되는 경우도 종종 있다. 이 때문에 한국 예능 프로그램에 처음으로 자막 삽입을 시도했을 때 시청자들로부터 "우리가 청각장애인이냐!"라며 욕을 한 사발 먹은 적 있다. 일본처럼 화면마다 자막으로 도배하는 수준은 아니고 화면마다 나오는 자막은 간결하게 만든다. 그리고 제작진마다 자막의 스타일이 다르다.

MBC 무한도전은 자막을 활용해 매니아층의 사랑을 받았다. 실제로 무한도전의 재미 중 상당 부분을 자막이 차지한 것이 사실이다. 몇몇 자막들은 그 재치와 기발함이 대단해서 방영된지 상당한 기간이 지는 지금도 회자되는 자막들도 많다. 예능 자막 부분에 있어서는 그 어떤 예능 프로그램도 예나 지금이나 무도 근처에도 못간다는 것이 중론.

SBS 예능 프로그램들은 손발이 오그라드는 허세자막으로 유명하다. 특히 X맨을 찾아라병맛이 절정에 달했다고 평가한다. (I need a dance 댄.폭.스.발. 색.도.시.발.[16]) 그래도 2010년대 이후 SBS에서도 트렌드를 반영하면서 다소 나아지긴 했다.

일본 예능프로그램에서 한국보다 한발 앞서서 자막을 예능 요소로 활용하고 있지만 정작 자막 활용패턴은 한국보다 오하려 후진적으로 한국의 2000년대 중후반과 유사한 편이며, 심지어는 자막으로 도배하거나 연출을 너무 요란하게 만들어서 오히려 지저분해보이는 경우도 있다. 일본 대단해 같은 것만 봐도 쓸데없이 감탄사까지 전부 자막으로 띄워놓는 열도의 패기를 볼 수 있다.

중국이나 대만 등 중화권 예능 프로그램도 자막을 많이 활용하는 편이기는 하지만, 동아시아권을 제외한 나머지 국가들의 코미디나 예능 프로그램의 경우에는 자막을 예능 요소로 활용하는 경우는 그리 많지 않다.

6. 인터넷 콘텐츠 자막

유튜브 시대가 도래하면서 유튜버가 상당히 많아졌는데 유튜버에 따라 다르지만 자막도 중요한 요소 중에 하나다. 기초적인 동영상 편집 소프트웨어에도 자막 기능들이 달려 있어서 자막 자체를 다는 것은 초보자도 할 수 있다.

경쟁성은 얼마나 센스있게 다느냐, 그리고 얼마나 깔끔하냐에서 나오는데 퀄리티가 높은 것들은 영상 편집 소프트웨어의 자막 기능을 이용해서 자막을 다는 것이 아니라 포토샵으로 이미지를 만들어서 단다. 프리미어 프로를 사용한다면 포토샵의 PSD 파일을 타임라인에 집어넣을 수 있는 장점도 있다.

애프터 이펙트를 이용하여 자막을 만드는 방법도 있다. 아직 Aegisub이 구현할 수 없는 효과들이 많다. 이를테면 이중선 같은 것. 제작자 역시 이중선을 만들려면 똑같은 라인을 하나 더 만들어서 그걸 조금 크게 하라고 답변했다. 그라데이션도 포토샵으로 한 거에 비하면 좀 딱딱해보이며 용량이 기하급수적으로 늘어나버린다.

가라오케 시간만 딴 후에 애프터 이펙트로 자막작업을 하는 경우가 있다. *.ass의 수배 이상 시간이 걸리며 애프터 이펙트 자체가 초심자는 다루기 꽤 어려워 이런 자막은 거의 보이지 않는다. 그래도 효과는 *.ass에 비해 깔끔하고 부드러우며 애펙은 동영상 자체에 효과를 줄 수 있기 때문에 시간만 들인다면 타이틀의 구현 효과도 똑같이 따라하는게 가능하다고.

7. 관련 문서



[1] 이러한 정보는 시각장애인을 위한 음성자막(?)으로만 들려주는 내용이다.[2] 1949년에 미국 CBS가 개발했으며, 이걸 텔롭이라고 부른다.[3] 80년대에는 주조정실이나 영상실 등에서 "수파 인, 수파 아웃" 이런식으로 지시하곤 했다.[4] 특히 1983년 중국 공군의 MIG-21기 귀순 때 TV 민방위 경보방송 과정에서 드러났는데, MBC의 경우 급작스레 터진 일이라 90여 장의 자막용 슬라이드를 챙기는 것 외엔 별다른 대책이 없어서 이웅희 당시 사장이 민방위 방송도 컴퓨터로 자막 처리할 수 있는 방법을 강구하도록 지시하면서 이는 '슈퍼컴'이란 문자발생기 개발의 한 계기가 되었다.(출처: <문화방송 삼십년사(1992)> p527)[5] 단 MBC는 드물기는 했지만 1976년부터 컬러 자막을 넣기 시작했다.[6] <MBC 가이드> 1985년 11월호에도 자세한 정보가 나온다.(#1, #2)[7] 이하 <문화방송 삼십년사> P526~529, <TV로 실어나르는 문자 메시지, 방송용 한글(이석인 글)>, <한국 방송에서의 그래픽 기술(오건식 글, 1996)> 참고.[8] 주로 동아시아권 드라마나 영화, 일본 애니메이션이 이에 해당한다.[9] 특히 러시아어의 키릴 문자는 자막 만들기가 까다로운 편이며, 모양이 비슷비슷해 보이는 문자와 특유의 긴 단어도 있기 때문에 빠르게 지나가는 대사 자막을 읽기도 까다롭다.[10] 물론 한글이 어떤 분야에서든 항상 유리한 것만은 아니다. 모아쓰기 특징으로 인해 11,172자를 만들어야 할 정도로 폰트 제작이 어려우며, 컴퓨터 시대 이전에는 인쇄하는 데도 애를 먹었다. 활자 제작 자체부터가 문제였기 때문이다. 심지어 한글을 모아 쓰는 타자기를 개발하는 데도 상당한 애를 먹었으며, 수동 타자기의 경우 자동 타자기나 지금의 컴퓨터만큼 편하지 못했다. (초성 자음 키와 종성 자음 키, 받침이 있는 모음과 없는 모음의 모양이나 위치가 다르기 때문에 별도의 키나 활자가 필요하다.) 심지어 컴퓨터를 쓰는 지금도 국가 표준인 두벌식 키보드는 도깨비불 현상이라는 문제를 안고 있다. 또한 영어의 th 발음처럼 한글로 완벽하게 표기할 수 없는 발음도 있다.[11] 정확히는 CC는 화면에 추가 정보를 띄우는 자막이고, SDH는 본격적으로 시각적 상황+대사를 합한 자막이다.[12] 영어권은 자막이 친숙한 편은 아니다. 그래서 자막을 만든다면 아예 청각장애인 지원 겸해서 SDH로 제작하는 경우가 많다. 해외 영화 같은 경우 SDH가 아닌 경우도 많다.[13] 사진의 노래는 아웃사이더외톨이이다.[14] 단, 이쪽은 초대가수 무대에나 올라온다.[15] 아예 없었던 건 아니지만, 이는 매우 불규칙했고 소수에 불과했다. 그 뒤 가사 자막은 뮤직뱅크 때서야 완전히 도입되었다.[16] 연애편지에서 나왔다.

파일:CC-white.svg 이 문단의 내용 중 전체 또는 일부는
문서의 r53
, 2번 문단
에서 가져왔습니다. 이전 역사 보러 가기
파일:CC-white.svg 이 문단의 내용 중 전체 또는 일부는 다른 문서에서 가져왔습니다.
[ 펼치기 · 접기 ]
문서의 r53 (이전 역사)
문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)