포스트

Tailscale 시리즈 1편 — 창고 노트북으로 만든 한국 IP 우회 인프라 (동기·실측·구조)

Tailscale 시리즈 1편 — 창고 노트북으로 만든 한국 IP 우회 인프라 (동기·실측·구조)
TL;DR — 핵심 요약
  • 후쿠오카 1년+ 누적된 한국 IP 필요성을, 창고 노트북 + Tailscale Personal Free로 해결
  • 3 노드 mesh (부산 Win + 후쿠오카 Mac + 후쿠오카 Win) 가동 — P2P direct 50ms / Tunnel DOWN 24.9 Mbps / 무인 15+ 시간 안정
  • Tailscale은 mesh VPN — 데이터 평면(WireGuard, E2E) + 제어 평면(coordination) 분리. 트래픽이 회사 인프라 미경유
  • 회사는 2019년 토론토 창업, Google 출신 4인 (Brad Fitzpatrick 포함), 누적 펀딩 $272M. Personal 플랜이 6 user / 디바이스 무제한 무료
Visitors

Hits

이 시리즈가 다루는 것

후쿠오카에서 1년 넘게 살면서 한국 IP가 아쉬운 순간이 꾸준히 쌓였습니다. 한국 결제·은행·일부 콘텐츠는 해외 IP에서는 정상 동작하지 않거나 추가 인증을 요구하고, 그때마다 상용 한국 VPN을 잠깐 켜는 패턴은 비용·신뢰·OS 호환 모두에서 깔끔하지 않았습니다.

해결책으로 부산 본가 창고에 7년째 처박혀있던 케케묵은 노트북(Samsung Galaxy Book 950SBE, Intel Core i7-8565U / 16GB / Windows 11 Home)을 끌어내 무인 exit node로 부활시키고, 후쿠오카 측 Mac에서 SSH로 원격 운영하는 개인 Tailscale 인프라를 셋업했습니다. 며칠간의 검증 결과 Tunnel DOWN 24.9 Mbps · P2P direct 50ms RTT · 무인 15시간+ 안정 가동 — 새 하드웨어 없이도 한국 IP 우회와 원격 운영이 충분히 가능하다는 게 데이터로 확인됐습니다.

이 시리즈는 그 전체 과정을 3편에 나누어 정리합니다.

#제목다루는 것
1편 (이 글)동기·실측·구조가동 중인 인프라의 측정값 + Tailscale·메시 VPN·WireGuard의 구조
2편본가 셋업 + 무인 운영 + 보안1회 방문 셋업 / 자가치유 SchTasks / 보안 감사
3편작동 원리 + 비용·한계DERP·MagicDNS·hole punching / 연 1만 원 비용 회고

이 1편은 이미 가동 중인 인프라의 측정값을 먼저 보여주고, 그게 가능한 구조적 근거를 풀어가는 흐름입니다.

잠깐, 이건 짚고 넘어가자

“exit node? tailnet? peer? 시작 전에 용어가 너무 많은데?”

본문에 자주 등장할 핵심 4개만 짧게 정리하고 들어갑니다.

  • Tailnet — 한 사용자(또는 조직)에 묶인 Tailscale 노드들의 사설 가상 네트워크. 우리 시나리오에서는 부산 노트북 + 후쿠오카 Mac + 후쿠오카 Windows 데스크톱 세 노드가 한 tailnet에 들어있습니다.
  • Peer (피어) — tailnet 안의 한 노드. 클라이언트/서버 구분이 없고, 모두 동등한 위치에서 서로 직접 통신할 수 있는 멤버라는 뜻입니다. P2P(peer-to-peer)의 그 peer.
  • Mesh (메시) — 피어들이 중앙 허브를 거치지 않고 서로 직접 연결되는 망 구조. 뒤에서 hub-and-spoke와 비교해 자세히 다룹니다.
  • Exit node — tailnet 안의 한 노드를 “이 노드를 통해 인터넷으로 나가겠다”라고 지정하는 기능. 후쿠오카 Mac이 부산 노트북을 exit node로 잡으면, Mac의 인터넷 트래픽이 모두 부산 노트북을 거쳐 한국 IP로 나갑니다. 이 시리즈가 만드는 핵심 도구가 이것입니다.

시스템 한눈에 — 현재 가동 중

Tailscale 관리 콘솔에 잡힌 노드 상태입니다. Personal Free 플랜, 두 노드는 항시 Connected, 부산 노트북은 Exit Node로 광고 중.

Tailscale admin console — 부산 본가 노트북 Exit Node 가동, 후쿠오카 Mac 연결 중 관리 콘솔 한 화면에 Win 11(부산)과 macOS 26(후쿠오카)이 같은 tailnet에 묶여있습니다. OS를 가리지 않는 메시가 Tailscale의 강점 중 하나입니다.

핵심 수치를 카드 네 장으로 요약합니다 (2026-05-04 ~ 05-05, 30시간 연속 측정 기준).

Uptime (무인)
15h+
자가치유 트리거 0건
Wi-Fi 신호
99%
365 샘플 모두 99% 고정
DERP RTT (Tokyo)
28ms
P2P direct (DERP 미경유)
Tunnel DOWN
24.9 Mbps
1080p 5x · 4K 근접

3 노드 mesh 토폴로지

Tailnet에는 현재 세 개의 노드가 묶여있습니다. 부산의 exit node 한 대, 후쿠오카 측 클라이언트 두 대(Mac + Windows). 노드끼리는 P2P direct로 연결되고, 직통이 안 되는 경우만 Tokyo DERP로 fallback합니다(가까운 동아시아 리전).

한국 (Exit Node)
samsung-home-laptop
Windows 11 Home
i7-8565U · 16GB
부산 본가 · KT GiGA 5G
tailnet
P2P direct
Tokyo DERP fallback
일본 (클라이언트)
fukuoka-mac
macOS 26.1
메인 노트북
후쿠오카 자택
fukuoka-home-pc
Windows 11
데스크톱
후쿠오카 자택
노드역할OS위치연결 모드
samsung-home-laptopExit Node (한국 IP 출구)Windows 11 Home부산 본가direct
fukuoka-mac메인 클라이언트macOS 26.1후쿠오카 자택direct
fukuoka-home-pc추가 클라이언트Windows 11후쿠오카 자택direct

세 노드 모두 direct P2P — DERP 중계 없이 직접 통신합니다. 가정 NAT 두 겹을 통과하면서도 직통이 성립하는 메커니즘은 hole punching이라 부르며, 본 시리즈 3편에서 자세히 다룹니다.

잠깐, 이건 짚고 넘어가자

“표 마지막 칸 ‘direct’는 무슨 뜻이야? 그리고 IP가 100.64.x.x 인 게 무슨 의미야?”

두 가지를 한 번에 짚습니다.

(1) 통신 경로 — direct vs DERP

  • P2P direct — 두 노드가 인터넷 위에서 서로의 공인 IP·포트로 직접 UDP 패킷을 주고받는 상태. 가장 빠르고, Tailscale 회사 인프라를 트래픽이 거치지 않습니다.
  • DERP relay — 직통이 안 될 때 Tailscale의 공용 중계 서버(Designated Encrypted Relay for Packets)를 경유하는 fallback. DERP는 암호화된 패킷을 그대로 전달만 하고 복호화하지 않습니다.

(2) Tailscale IP — 100.64.0.0/10

Tailscale이 노드에 부여하는 사설 IP는 100.64.x.x 모양입니다. 이 대역은 원래 ISP의 CGNAT(Carrier-Grade NAT) 용도로 예약된 공간인데, Tailscale이 이 대역을 그대로 빌려 자기 가상 네트워크의 주소로 씁니다. 인터넷에서 직접 도달 불가능한 사설 대역이므로 다른 인터넷 트래픽과 충돌하지 않습니다.


실측 데이터

DERP latency — 부산 노트북 기준

tailscale netcheck가 측정한 DERP 서버까지의 RTT 핵심 8개 리전입니다. 도쿄가 28ms로 압도적으로 가깝고, 동아시아 4개 리전이 모두 100ms 이내입니다.

리전RTT (부산 → DERP)대륙
Tokyo28ms동아시아 (사용 중)
Hong Kong61ms동아시아
Singapore74ms동남아
Bengaluru100ms남아시아
San Francisco127ms북미 서부
Ashburn190ms북미 동부
Sydney199ms오세아니아
London238ms유럽

전체 28개 리전 측정값이 필요하면 tailscale netcheck 한 줄로 직접 측정 가능합니다.

도쿄 28ms가 의미하는 것: hole punching이 실패해 DERP 중계로 떨어져도, 부산↔후쿠오카 RTT는 무료 공용 중계망 위에서 여전히 동일 대륙권 best-case 수준에 있습니다. 무료로 제공되는 글로벌 DERP 인프라가 비용 모델의 큰 축이라는 점을 미리 짚어둡니다.

대역폭 — Tunnel UP/DOWN vs 인터넷 백본

50MB 파일 기준 양방향 scp 측정 결과와 인터넷 백본을 함께 비교합니다. Tunnel DOWN이 24.9 Mbps로 전체 병목 — 부산 가정 회선의 업로드 측 한계가 그대로 드러납니다.

대역폭 비교 (Mbps, 50MB 파일 기준)

해석:

  • 인터넷 백본은 245 Mbps인데 Tunnel UP은 59.2 Mbps — WireGuard 암호화 + Wi-Fi 채널 + 오버헤드가 누적된 결과. i7-8565U(15W TDP)의 WireGuard cap이 ~100~200 Mbps 수준이라는 일반 벤치와 정합합니다.
  • Tunnel DOWN 24.9 Mbps는 부산 가정 FTTH 회선의 업로드 측 비대칭 한계 — 한국 가정 인터넷의 정상적인 다운 ≫ 업 구조 그대로입니다.
  • 1080p 영상 스트리밍 평균 5 Mbps 기준 5x 여유, 4K(~25 Mbps)는 cap 근접해 마진 없음.

안정성 — 30시간 연속 메트릭 368 샘플

5분 주기로 자동 수집된 메트릭의 7일 통계입니다. 핵심 지표 모두 표준편차가 사실상 0에 가까운 안정 상태.

항목평균minp50p95max샘플
Battery (AC 연결)84.8%84858585368
Wi-Fi signal99.0%99999999365
RTT 8.8.8.829.3ms28293090368
RTT 1.1.1.19.2ms891025368

자가치유 시스템의 작동 기록:

0
Tailscale 재시작
5분 헬스체크가 트리거한 횟수
0
sshd 재시작
동일 — 죽은 적 없음
0
SSH 인증 실패
최근 24시간 brute force 0건
5/5
SchTasks Ready
자가치유 작업 5종 모두 정상

재부팅 자동 복구 — 안정화 후 평균 1분 30초

원격 운영의 안전망으로 가장 중요한 시나리오는 “재부팅 후 사람 손 안 대고 SSH가 살아 돌아오는가”입니다. 클램쉘 모드(덮개 닫힘) 포함 4번의 재부팅 검증 결과:

차수부팅 완료SSH 복구헬스체크 첫 실행비고
1차n/a~5분재부팅 +19s첫 시도 (콜드 스타트)
2차+29s~1분 34초n/a 
3차+29s~1분+48s 
4차 (덮개 닫힘)+28sn/a+80s클램쉘 검증

1차는 DNS·서비스 초기화 등 콜드 스타트 비용이 누적되어 ~5분, 2차 이후 안정화 구간 평균은 1분 30초입니다. 클램쉘 검증의 결정적 증거는 WmiMonitorBasicDisplayParams Count = 0(활성 모니터 0개) 상태에서 모든 서비스가 정상 기동했다는 점입니다. 즉 본가 가족이 노트북 덮개를 닫아 두어도 인프라는 그대로 동작합니다.

여기까지가 인프라 가동 증명입니다. 아래부터는 이 결과가 가능한 구조적 근거로 넘어갑니다.


Tailscale은 누가 만들고 있는가

먼저 회사 자체를 짚고 갑니다. Tailscale은 2019년 캐나다 토론토에서 창업된 회사로, 창업자 네 명은 모두 Google 출신 엔지니어입니다(Wikipedia 기준).

창업자비고
Avery PennarunCEO. 블로그 글 “How NAT traversal works”가 NAT 입문 자료의 사실상 표준
David Crawshaw시스템·언어 영역, Go 생태계와 가까운 경력
David CarneyChief Strategy Officer
Brad FitzpatrickLiveJournal·memcached·Perlbal의 창시자, 이후 Google에서 Go 언어 코어 팀에서 오래 일함

특히 Brad Fitzpatrick의 합류는 무게가 큽니다. Wikipedia에 따르면 그는 대학 1학년 때 LiveJournal을 시작해 2005년 1월 Six Apart에 매각, 그 후 2007년 8월부터 Google Go 코어팀 Staff Software Engineer로 12년 반 근무하다가 2020년 1월 퇴사 후 3일 뒤 Tailscale에 “late-stage co-founder”로 합류했습니다 — 즉 원래 3인(Avery/Crawshaw/Carney)이 2019년 창업한 회사에 4번째 멤버로 늦게 합류한 것입니다. memcached·OpenID·Perkeep 등 인터넷 인프라 공통 기술을 직접 만든 사람이 12년 반 Go팀에 있다가 곧장 옮겨왔다는 시간선은 단순 신생 스타트업과는 다른 신뢰 면을 만들어줍니다.

펀딩도 가볍지 않습니다(Wikipedia).

라운드시기액수리드
Series A2020-11$12MAccel
Series B2022-05$100MCRV, Insight Partners
Series C2025-04$160MAccel

총 $272M의 자본이 들어간 회사가 본 시리즈가 “0원 인프라”로 활용하는 Personal 플랜을 제공한다는 점은 그 자체로 흥미로운 비대칭입니다. 그 비대칭의 구조적 근거를 아래에서 풉니다.


전통 VPN은 hub-and-spoke

회사 VPN을 떠올려보면 됩니다. 노트북 → 클라이언트 앱 → 회사 게이트웨이 → 사내망. 모든 트래픽은 게이트웨이라는 중앙 허브를 한 번 거칩니다. 두 사원이 서로의 노트북에 접속하더라도 트래픽은 일단 게이트웨이로 올라갔다가 내려옵니다.

잠깐, 이건 짚고 넘어가자

“VPN이랑 게이트웨이가 정확히 뭐야?”

  • VPN (Virtual Private Network) — 인터넷 위에 깔린 가상의 사설 네트워크. 외부에서는 안 보이는 사설 IP 대역을 두고, 그 안의 노드들이 마치 같은 LAN에 있는 것처럼 통신할 수 있게 해줍니다. 패킷은 보통 암호화 터널 안에 캡슐화되어 흐릅니다.
  • 게이트웨이 (Gateway) — 한 네트워크와 다른 네트워크 사이에서 패킷을 받아 넘기는 관문 노드. 가정 라우터도 가정 LAN ↔ 인터넷의 게이트웨이고, 회사 VPN 서버도 사내망 ↔ 인터넷의 게이트웨이입니다.
Hub-and-Spoke (전통 VPN)
VPN
Gateway
노트북 A
노트북 B
노트북 C
사내망
  • 모든 트래픽이 게이트웨이 경유 (1 hop 추가)
  • 게이트웨이가 단일 장애점
  • 지리적으로 멀면 전 트래픽이 그쪽으로 우회
Mesh (Tailscale)
노드 A
노드 B
노드 C
노드 D
  • 노드끼리 P2P 직통, 중앙 서버 트래픽 미경유
  • 중앙 서버는 키 교환·조정만 담당
  • 지리적으로 가까운 노드끼리는 짧은 경로

이 모델은 사내 보안 정책을 한 점에서 강제하기엔 좋지만, 가정 노트북 두 대로 한국 IP 우회 인프라를 만드는 시나리오에서는 어색합니다. 부산 노트북이 게이트웨이 역할까지 하면 되는데, 그러려면 두 노드가 직통으로 통신할 수 있어야 합니다. 그리고 NAT 두 겹 뒤의 가정 노트북 둘이 직통으로 통신하는 일은 일반적으로 안 됩니다 — 외부에서 가정 라우터의 22번 포트를 두드려도, 라우터는 “내부 어느 디바이스로 보낼지” 모르는 구조이기 때문입니다. 메시 VPN은 이 문제를 다른 방식으로 풉니다.


메시 VPN — 노드끼리 직통

메시 VPN의 발상은 단순합니다. 중앙 게이트웨이를 거치지 말고 노드끼리 직접 연결하자. 그러나 발상은 단순해도 실행은 어렵습니다. 위에서 짚은 대로 양쪽 노드가 모두 NAT 뒤에 있으면 누구도 먼저 접속을 받을 수 없습니다.

해결의 단서는 두 피어가 동시에 서로에게 outbound를 쏘는 것입니다(hole punching, 3편에서 깊이 다룸). 그러려면 누군가가 두 피어에게 “지금이다, 동시에 쏴라”라고 신호를 보내야 합니다. 그 신호 담당이 메시 VPN의 조정 서버(coordination server) 입니다.

여기서 메시 VPN의 핵심 분리가 등장합니다. 통신을 두 평면으로 나눠 생각하는 것입니다.

Control Plane
Tailscale coordination server
  • 각 노드의 WireGuard 공개 키 등록·배포
  • 노드 목록·ACL·MagicDNS 매핑 배포
  • 피어 간 hole punching 신호 중계 (DERP)
  • 실제 데이터 트래픽은 여기 안 흐른다
중앙화 — 한 곳에서 관리
Data Plane
노드 ↔ 노드 (WireGuard)
  • 노드 사이 E2E 암호화 터널
  • 대부분의 시간 P2P direct로 흐름
  • Tailscale 회사 인프라 미경유
  • 회사가 트래픽 내용을 못 본다 (구조적 보장)
분산 — 노드끼리 직접

조정 서버는 키와 메타데이터만 다루고, 실제 패킷은 노드끼리 주고받는다.

이 분리가 메시 VPN의 거의 모든 성질을 결정합니다.

  • 회사가 트래픽 내용을 못 본다 — 데이터 평면은 노드끼리 E2E 암호화이고 키는 노드 안에서 만들어집니다. 조정 서버는 공개 키만 받습니다.
  • 회사 인프라 비용이 작다 — 조정 서버는 메타데이터(노드 목록·ACL·키)만 다루므로 사용자 1명이 하루 종일 영상을 봐도 회사 측 트래픽은 거의 늘지 않습니다.
  • 회사가 죽어도 한동안 동작한다 — 노드들이 이미 키와 피어 정보를 캐시했다면 조정 서버가 잠깐 죽어도 데이터 평면은 그대로 흐릅니다.

DERP relay도 같은 맥락입니다 — UDP가 막혀서 P2P direct가 실패하면 양 노드가 Tailscale의 DERP 서버를 통해 패킷을 주고받지만, DERP는 여전히 암호화된 패킷을 그대로 전달할 뿐 복호화하지 않습니다. 위에서 측정한 28개 리전 DERP RTT 표가 의미 있는 이유 — 그 인프라가 무료로 제공되면서도 회사가 내용을 들여다보지 않는다는 것이 구조적으로 보장됩니다.

이 구조적 보장 위에, Tailscale은 외부 인증과 감사로도 같은 약속을 명시합니다.

Private keys never leave the device. All traffic is end-to-end encrypted, always.

Tailscale cannot read your traffic.

— Tailscale Security (tailscale.com/security)

  • SOC 2 Type II 인증 (AICPA Trust Services Criteria — security / availability / confidentiality)
  • 외부 보안 회사 Latacora의 정기 감사
  • 코드 측: 피어 리뷰 + 자동화된 정적 분석 + 의존성 취약점 스캔

추론(데이터 평면이 E2E라 회사가 못 본다)이 명시적 약속(회사가 못 본다고 약속한다)과 만나는 지점입니다. 둘 중 한쪽만으로는 부족하고, 두 보장이 겹치는 게 신뢰 모델의 안정성을 만듭니다.

P2P direct를 어떻게 만드는지에 대한 Avery Pennarun의 한 줄 요약은 다음과 같습니다.

“There is no magic bullet for NAT traversal. Tailscale’s approach: try everything at once, and pick the best thing that works.

— Avery Pennarun, “How NAT traversal works”


WireGuard — 데이터 평면의 표준

데이터 평면 자체는 Tailscale이 만든 것이 아니라 WireGuard라는 별도 프로토콜을 그대로 가져다 씁니다. WireGuard는 Jason A. Donenfeld가 만든 VPN 프로토콜로, 2020년 1월 Linus Torvalds의 net-next 트리에 머지되어 Linux 5.6 (2020-03-29) 메인라인에 포함됐습니다.

코드베이스가 작고 명확한 것이 가장 큰 특징인데, Linus의 다음 발언이 2018년 LKML 인용으로 자주 회자됩니다.

“Maybe the code isn’t perfect, but I’ve skimmed it, and compared to the horrors that are OpenVPN and IPsec, it’s a work of art.

— Linus Torvalds, LKML (Ars Technica 2018-08 인용)

WireGuard의 암호화 스택은 표준 빌딩 블록을 단순 조합합니다.

역할알고리즘
키 교환Curve25519
대칭 암호화 + 인증ChaCha20-Poly1305 (AEAD)
해시 함수BLAKE2s
키 파생HKDF
해시테이블 키SipHash24

핸드셰이크는 Noise Protocol Framework의 IK 패턴(Noise_IKpsk2_25519_ChaChaPoly_BLAKE2s)을 그대로 채택해 2-메시지로 끝납니다. 알고리즘 협상(cipher suite negotiation) 자체가 없어서 다운그레이드 공격이 구조적으로 막혀있다는 점이 IPsec/TLS 가족과 가장 큰 차이입니다.

Tailscale은 이걸 자체 재구현하지 않고 공식 wireguard-go 구현을 그대로 끼워 넣습니다. 메시 메타데이터 측에 결함이 있더라도 데이터 평면 암호화는 별도 시스템의 특성을 그대로 물려받습니다.

WireGuard의 신뢰받는 정도는 Linus의 발언만이 아니라 채택과 학술 검증에서도 확인됩니다.

  • 상용 VPN 채택 — NordVPN, IPVanish, TunnelBear 등이 자체 VPN의 데이터 평면으로 WireGuard를 직접 채택 (Wikipedia)
  • 형식 검증 — 2019년 5월 INRIA 연구진이 WireGuard 프로토콜의 machine-checked proof를 발표. 즉 보안 속성이 수학적으로 증명됨

이로써 WireGuard는 (a) Linus가 메인라인에 받아주고, (b) INRIA가 형식 검증을 발표하고, (c) 상용 VPN들이 자기 제품에 그대로 채택하는 3중 근거 위에 서 있는 셈입니다. Tailscale이 자체 재구현 없이 그대로 가져다 쓰는 결정은 이 근거 위에서 자연스럽습니다.


무료 플랜의 한도 (Personal)

이제 비용 이야기로 옮깁니다. Tailscale의 무료 플랜인 Personal은 다음 한도를 가집니다(2026-05 기준 공식 페이지).

6
사용자
기존 3명에서 확대
사용자 디바이스
개수 제한 없음
3
ACL 그룹
정책 분기용
50
태그된 리소스
서버·서비스 식별
Exit node
Subnet router
MagicDNS
Split tunneling
Tailscale SSH (5 hosts)
Funnel · Serve
DERP 글로벌 인프라
Zero Trust ACL

개인 인프라용으로는 사실상 천장이 안 보이는 수준. 본 시리즈의 3 노드 mesh도 디바이스 수 한도 안에서 한참 여유.

여기서 눈에 띄는 점은 유료 플랜에 있는 “고급 기능” 대부분이 무료 플랜에도 그대로 들어있다는 사실입니다. Exit node, MagicDNS, ACL, Subnet router, DERP 인프라 사용권 — 본 시리즈가 다루는 것 거의 전부가 Personal에 포함됩니다. 상용 VPN의 무료 플랜이 보통 “데이터 한도”나 “서버 수 제한”을 거는 것과 대비됩니다.

그래서 왜 무료로 푸는가

상용 인프라가 이런 한도를 무료로 푼다는 게 처음엔 어색하게 보입니다. 그러나 위 control/data plane 분리에서 답의 절반이 자연스럽게 따라옵니다.

회사 인프라에 흐르는 트래픽이 작다. 사용자가 부산↔후쿠오카로 1080p 영상을 5시간 시청해도, Tailscale 회사 측 인프라에 추가되는 비용은 키 갱신·메타데이터 동기화 같은 메시지 몇 KB뿐입니다. 영상 패킷은 후쿠오카 Mac과 부산 노트북 사이 P2P direct로만 흐릅니다. 사용자 한 명을 늘리는 한계 비용이 사실상 0에 가깝다는 뜻입니다.

남은 절반은 회사의 GTM(go-to-market) 전략 측면입니다. Tailscale은 명시적으로 “개인은 무료로 충분히 쓰게 두고, 회사가 도입하는 시점에 유료로 전환” 모델을 택했습니다. 엔지니어가 자기 노트북에서 Personal 플랜으로 익숙해진 뒤, 자기 회사에서 같은 도구를 쓰자고 제안하는 흐름이 회사 입장에선 가장 싼 영업 채널입니다.

회사 측은 이를 자본주의적 합리성만으로 포장하지 않고, 미션 차원의 발언으로도 명시합니다.

If we’re going to fix the Internet, there’s no point only fixing it for big companies who can pay a lot.

— Tailscale 공식 블로그

위에서 정리한 펀딩 ($272M 누적) 위에서, 개인 무료 플랜은 회사의 비용 부담 측에서는 충분히 감당 가능하면서, 동시에 다음 세대 엔지니어들이 사내 도입을 끌고 들어오는 채널 역할을 합니다.


다른 메시 VPN이 아니라 Tailscale인 이유

이 시리즈가 Tailscale을 고른 이유를 짧게 정리합니다. 메시 VPN/Zero Trust 영역에 다른 선택지도 적지 않습니다.

도구조정 서버데이터 평면무료 한도본 시리즈 시나리오에서
TailscaleSaaS (Tailscale 운영)WireGuard6 user / 디바이스 무제한본 시리즈가 채택
Headscaleself-hosted (오픈소스)WireGuard무제한 (자기 서버)조정 서버를 직접 운영해야 함
ZeroTierSaaS자체 프로토콜25 노드노드 한도가 빨리 차고, WireGuard가 아님
Nebulaself-hosted자체 (Slack 출신)무제한 (자기 PKI)PKI를 직접 운영해야 함
TwingateSaaS (B2B 중심)자체5 user, 사용자 디바이스 제한무료 한도가 빠르게 부족
raw WireGuard없음WireGuard무제한키 배포·NAT traversal 전부 직접. 가정 NAT 두 겹은 거의 불가능
OpenVPN자기 서버OpenSSL자기 운영hub-and-spoke, NAT 뒤 가정 노트북에 부적합

본 시나리오의 두 결정 요건은 (a) 무료로 동작할 것(b) 양쪽 NAT을 자동으로 뚫을 것입니다. (a)는 Headscale·Nebula의 self-hosted 부담을 배제하고, (b)는 raw WireGuard·OpenVPN의 hub-and-spoke를 배제합니다. 남는 후보는 Tailscale과 ZeroTier 정도이며, ZeroTier는 무료 한도(25 노드)와 WireGuard 프로토콜 미사용이 약점입니다.


정리

질문
동기후쿠오카 1년+ 거주 중 한국 결제·은행·콘텐츠가 해외 IP에서 막히는 패턴이 누적
해결 방식부산 본가 창고 노트북을 무인 exit node로, 후쿠오카 Mac에서 SSH로 원격 운영
가동 결과 (실측)P2P direct 50ms / Tunnel DOWN 24.9 Mbps / 무인 15시간+ 안정 / 자가치유 트리거 0건
Tailscale 회사2019년 토론토, Google 출신 4인 (Brad Fitzpatrick 포함), 누적 펀딩 $272M
메시 VPN 핵심WireGuard(데이터 평면) + Tailscale 조정 서버(제어 평면) 분리
WireGuard 강점Linux 5.6 메인라인, Noise IK + ChaCha20-Poly1305, 코드 단순성 (“a work of art” — Linus)
회사가 트래픽을 못 보는 근거데이터 평면이 노드 간 E2E이고 비밀 키가 노드 밖으로 안 나감, DERP도 암호문 그대로 전달
무료 가능한 이유회사 인프라 측 한계 비용 ≈ 0 + PLG 영업 모델 + 명시된 미션
Personal 플랜6 user / 디바이스 무제한 / Exit Node·MagicDNS·ACL 포함

이 1편이 시리즈의 동기와 결과, 그리고 그게 가능한 구조적 근거였다면, 2편은 그 인프라를 실제로 만드는 단계로 넘어갑니다.


참고 자료


다음 편

2편은 부산 본가 노트북을 실제로 무인 exit node로 만드는 셋업 + 무인 운영 자가치유 + 보안 감사를 한 번에 다룹니다. 본가 1회 방문에서 끝낼 일들의 전체 흐름과, 후쿠오카에서 본가에 한 번도 안 가도 새 디바이스를 추가할 수 있는 원격 운영 모델을 정리합니다.

2편 — 본가 셋업 + 무인 운영 + 보안 (작성 예정)

이 기사는 저작권자의 CC BY 4.0 라이센스를 따릅니다.