記事

Tailscale シリーズ 第1回 — 押し入れのノートPCで作る韓国IP経由インフラ(動機・実測・構造)

Tailscale シリーズ 第1回 — 押し入れのノートPCで作る韓国IP経由インフラ(動機・実測・構造)
TL;DR — 要点まとめ
  • 福岡で1年以上暮らす中で積み重なった韓国IPの必要性を、押し入れのノートPC + Tailscale Personal Free で解決
  • 3ノードメッシュ(釜山 Win + 福岡 Mac + 福岡 Win)が稼働中 — P2P direct 50ms / Tunnel DOWN 24.9 Mbps / 無人で15時間以上の安定動作
  • Tailscale はメッシュVPN — データプレーン(WireGuard、E2E)+ コントロールプレーン(coordination)を分離。トラフィックは会社インフラを経由しない
  • 会社は2019年トロントで創業、Google 出身の4人(Brad Fitzpatrick を含む)、累計調達額 $272M。Personal プランは 6 user / デバイス無制限で無料
Visitors

Hits

このシリーズで扱うこと

福岡で1年以上暮らしてきた中で、韓国IPが必要になる場面が地味に積み重なってきました。韓国の決済・銀行・一部のコンテンツは海外IPからは正常に動作しなかったり追加認証を要求してきたりして、そのたびに商用の韓国向けVPNを一時的にONにするやり方は、コスト・信頼性・OS互換性のどれを取ってもすっきりしませんでした。

解決策として、釜山の実家の押し入れに7年眠っていた古いノートPC(Samsung Galaxy Book 950SBE、Intel Core i7-8565U / 16GB / Windows 11 Home)を引っ張り出してきて無人 exit node として復活させ、福岡側の Mac から SSH でリモート運用する個人 Tailscale インフラをセットアップしました。数日間の検証の結果、Tunnel DOWN 24.9 Mbps · P2P direct 50ms RTT · 無人で15時間以上の安定動作 — 新しいハードウェアを購入することなく、韓国IP経由とリモート運用が十分に成り立つことがデータで確認できました。

このシリーズではその全工程を3編に分けて整理します。

#タイトル扱う内容
第1回(本記事)動機・実測・構造稼働中インフラの実測値 + Tailscale・メッシュVPN・WireGuard の構造
第2回実家セットアップ + 無人運用 + セキュリティ1回の訪問で済ませるセットアップ / 自己修復 SchTasks / セキュリティ監査
第3回動作原理 + コスト・限界DERP・MagicDNS・hole punching / 年1,100円のコスト振り返り

この第1回は すでに稼働しているインフラの実測値を先に提示し、それが可能となる構造的な根拠を解いていく流れです。

ちょっと待って、これだけ確認しておこう

「exit node? tailnet? peer? 始める前から用語が多すぎない?」

本文に頻出する核となる4つだけ短くまとめてから入ります。

  • Tailnet — 一人のユーザー(または組織)に紐づく Tailscale ノード群の プライベート仮想ネットワーク。本シナリオでは釜山ノートPC + 福岡 Mac + 福岡 Windows デスクトップの3ノードが1つの tailnet に入っています。
  • Peer(ピア) — tailnet 内の1ノード。クライアント/サーバーの区別がなく、すべてが対等な立場で互いに直接通信できるメンバー、という意味です。P2P(peer-to-peer)の peer です。
  • Mesh(メッシュ) — ピア同士が中央ハブを経由せず 互いに直接接続される 網構造。後ほど hub-and-spoke と比較しながら詳しく扱います。
  • Exit node — tailnet 内の1ノードを「このノード経由でインターネットに出ていく」と指定する機能。福岡 Mac が釜山ノートPCを exit node に指定すると、Mac のインターネットトラフィックがすべて釜山ノートPCを経由して韓国IPで出ていきます。このシリーズが作る中核ツールがこれです。

システムを一目で — 現在稼働中

Tailscale 管理コンソールに表示されているノードの状態です。Personal Free プラン、2ノードは常時 Connected、釜山ノートPCは Exit Node として広告中。

Tailscale admin console — 釜山実家のノートPCが Exit Node として稼働、福岡 Mac が接続中 管理コンソールの1画面に Win 11(釜山)と macOS 26(福岡)が同じ tailnet にまとめられています。OSを問わないメッシュ が Tailscale の強みの1つです。

主要な数値をカード4枚で要約します(2026-05-04 ~ 05-05、30時間連続測定基準)。

Uptime(無人)
15h+
自己修復トリガー 0件
Wi-Fi 信号
99%
365 サンプルすべて 99% 固定
DERP RTT (Tokyo)
28ms
P2P direct(DERP 非経由)
Tunnel DOWN
24.9 Mbps
1080p 5x · 4K 近接

3ノードメッシュのトポロジー

Tailnet には現在3つのノードが束ねられています。釜山の exit node 1台、福岡側のクライアント2台(Mac + Windows)です。ノード同士は P2P direct で接続され、直通が成立しない場合のみ Tokyo DERP にフォールバックします(最も近い東アジアリージョン)。

韓国 (Exit Node)
samsung-home-laptop
Windows 11 Home
i7-8565U · 16GB
釜山実家 · KT GiGA 5G
tailnet
P2P direct
Tokyo DERP fallback
日本 (クライアント)
fukuoka-mac
macOS 26.1
メインノートPC
福岡自宅
fukuoka-home-pc
Windows 11
デスクトップ
福岡自宅
ノード役割OS場所接続モード
samsung-home-laptopExit Node(韓国IP出口)Windows 11 Home釜山実家direct
fukuoka-macメインクライアントmacOS 26.1福岡自宅direct
fukuoka-home-pc追加クライアントWindows 11福岡自宅direct

3ノードすべてが direct P2P — DERP 中継なしで直接通信しています。家庭用 NAT 二重越しでも直通が成立する仕組みは hole punching と呼ばれ、本シリーズ第3回で詳しく扱います。

ちょっと待って、これだけ確認しておこう

「表の最後の列の『direct』は何のこと? そして IP が 100.64.x.x なのはどういう意味?」

2点を一度に押さえます。

(1) 通信経路 — direct vs DERP

  • P2P direct — 2ノードがインターネット上でお互いのグローバルIP・ポートに 直接 UDPパケットを送り合っている状態。最速で、Tailscale 社のインフラをトラフィックが経由しません
  • DERP relay — 直通が成立しない場合に Tailscale の公開中継サーバー(Designated Encrypted Relay for Packets)を経由するフォールバック。DERPは 暗号化されたパケットをそのまま転送するだけで復号しません

(2) Tailscale IP — 100.64.0.0/10

Tailscale がノードに付与するプライベートIPは 100.64.x.x の形をしています。この帯域はもともとISPの CGNAT(Carrier-Grade NAT)用途で予約された空間ですが、Tailscale はこの帯域を そのまま借りて自分の仮想ネットワークのアドレスに使っています。インターネットから直接到達できないプライベート帯域なので、他のインターネットトラフィックと衝突しません。


実測データ

DERP latency — 釜山ノートPCを起点とした計測

tailscale netcheck が測定した DERP サーバーまでの RTT、主要8リージョンです。東京が28msと圧倒的に近く、東アジア4リージョンがすべて100ms以内です。

リージョンRTT (釜山 → DERP)大陸
Tokyo28ms東アジア (使用中)
Hong Kong61ms東アジア
Singapore74ms東南アジア
Bengaluru100ms南アジア
San Francisco127ms北米西部
Ashburn190ms北米東部
Sydney199msオセアニア
London238ms欧州

全28リージョンの実測値が必要であれば、tailscale netcheck 一行で直接測定可能です。

東京28msが意味するもの。hole punching が失敗してDERP中継に落ちても、釜山↔福岡のRTTは無料の公開中継網の上でも依然として同一大陸圏のベストケースに近い水準を保てる、ということです。無料で提供されるグローバルDERPインフラ がコストモデルの大きな柱であることを、ここで先に押さえておきます。

帯域幅 — Tunnel UP/DOWN vs インターネットバックボーン

50MBファイルでの双方向 scp 測定結果と、インターネットバックボーンを並べて比較します。Tunnel DOWN が24.9 Mbpsで全体のボトルネック — 釜山側の家庭回線のアップロード側の上限がそのまま現れています。

帯域幅比較 (Mbps、50MBファイル基準)

解釈:

  • インターネットバックボーンは245 Mbpsなのに Tunnel UP は59.2 Mbps — WireGuard の暗号化 + Wi-Fi チャネル + オーバーヘッドが累積した結果です。i7-8565U(15W TDP)のWireGuard上限が ~100~200 Mbps 程度という一般的なベンチマークと整合します。
  • Tunnel DOWN 24.9 Mbps は釜山側の家庭用FTTH回線のアップロード側の非対称制限 — 韓国の家庭インターネットの典型的なダウン ≫ アップ構造そのものです。
  • 1080p 動画ストリーミングの平均5 Mbps基準で 5倍の余裕、4K(~25 Mbps)は上限近接でマージンなし。

安定性 — 30時間連続のメトリクス368サンプル

5分周期で自動収集されたメトリクスの7日間統計です。主要指標すべてが標準偏差ほぼ0の安定状態。

項目平均minp50p95maxサンプル
Battery(AC接続)84.8%84858585368
Wi-Fi signal99.0%99999999365
RTT 8.8.8.829.3ms28293090368
RTT 1.1.1.19.2ms891025368

自己修復システムの作動記録:

0
Tailscale 再起動
5分ヘルスチェックがトリガーした回数
0
sshd 再起動
同様 — 落ちたことなし
0
SSH 認証失敗
直近24時間 brute force 0件
5/5
SchTasks Ready
自己修復ジョブ5種すべて正常

再起動の自動復旧 — 安定区間で平均1分30秒

リモート運用のセーフティネットとして最も重要なシナリオは「再起動後に人手を介さずSSHが復活するか」です。クラムシェルモード(蓋を閉じた状態)を含む4回の再起動検証結果:

ブート完了SSH 復旧ヘルスチェック初回実行備考
1回目n/a~5分再起動 +19s初回試行(コールドスタート)
2回目+29s~1分34秒n/a 
3回目+29s~1分+48s 
4回目(蓋を閉じた状態)+28sn/a+80sクラムシェル検証

1回目はDNS・サービス初期化などコールドスタートのコストが累積して~5分、2回目以降の安定区間の平均は1分30秒 です。クラムシェル検証の決定的な証拠は WmiMonitorBasicDisplayParams Count = 0(アクティブなモニタが0個)の状態ですべてのサービスが正常起動した、という点です。つまり実家の家族がノートPCの蓋を閉じておいてもインフラはそのまま動作するということです。

ここまでがインフラ稼働の証明です。以下からはこの結果を成り立たせる構造的な根拠に移ります。


Tailscale を作っているのは誰か

まずは会社そのものを押さえておきます。Tailscale は 2019年カナダのトロントで創業 された会社で、創業者4人は全員Google出身のエンジニアです(Wikipedia 基準)。

創業者備考
Avery PennarunCEO。ブログ記事 “How NAT traversal works” は NAT 入門資料の事実上の標準
David Crawshawシステム・言語領域、Goエコシステムに近いキャリア
David CarneyChief Strategy Officer
Brad FitzpatrickLiveJournal・memcached・Perlbal の創始者、その後Googleで Go 言語コアチームに長年在籍

特に Brad Fitzpatrick の合流は重みがあります。Wikipediaによると、彼は 大学1年生のときに LiveJournal を始め 2005年1月に Six Apart に売却、その後 2007年8月から Google Go コアチームの Staff Software Engineer として12年半勤務 し、2020年1月の退職から3日後に Tailscale に “late-stage co-founder” として合流 しました — つまり元々の3人(Avery/Crawshaw/Carney)が2019年に創業した会社に4人目のメンバーとして遅れて合流した形です。memcached・OpenID・Perkeep などインターネットインフラ系の共通技術を自ら作った人物が、12年半 Go チームに在籍した直後にここへ移ってきたというタイムラインは、単なる新興スタートアップとは違う信頼の側面を作ります。

ファンディングも軽くはありません(Wikipedia)。

ラウンド時期金額リード
Series A2020-11$12MAccel
Series B2022-05$100MCRV, Insight Partners
Series C2025-04$160MAccel

総額 $272M の資本が入った会社が、本シリーズで「0円インフラ」として活用する Personal プランを提供している、という点はそれ自体が興味深い非対称です。その非対称の構造的な根拠を以下で解いていきます。


従来型VPNは hub-and-spoke

会社のVPNを思い浮かべてみてください。ノートPC → クライアントアプリ → 会社ゲートウェイ → 社内ネットワーク。すべてのトラフィックはゲートウェイという中央ハブを必ず1度経由します。社員2人がお互いのノートPCに接続する場合でも、トラフィックはいったんゲートウェイに上がってから降りてきます。

ちょっと待って、これだけ確認しておこう

「VPN とゲートウェイって正確には何?」

  • VPN (Virtual Private Network) — インターネットの上に敷かれた 仮想のプライベートネットワーク。外部からは見えないプライベートIP帯域を持ち、その中のノード同士があたかも同じLAN上にいるように通信できるようにします。パケットは通常 暗号化トンネル内にカプセル化されて 流れます。
  • ゲートウェイ (Gateway) — あるネットワークと別のネットワークの間で パケットを受けて流す関門ノード。家庭用ルーターも家庭LAN ↔ インターネットのゲートウェイですし、会社のVPNサーバーも社内ネットワーク ↔ インターネットのゲートウェイです。
Hub-and-Spoke (従来型VPN)
VPN
Gateway
ノートPC A
ノートPC B
ノートPC C
社内ネット
  • すべてのトラフィックがゲートウェイ経由(1 hop 追加)
  • ゲートウェイが単一障害点
  • 地理的に遠いと全トラフィックがそちらへ迂回
Mesh (Tailscale)
ノード A
ノード B
ノード C
ノード D
  • ノード同士が P2P 直通、中央サーバーをトラフィックが経由しない
  • 中央サーバーは鍵交換・調整のみを担当
  • 地理的に近いノード同士は短い経路

このモデルは社内のセキュリティポリシーを1点で強制するには良いのですが、家庭用ノートPC2台で韓国IP経由インフラを作るシナリオではちぐはぐです。釜山ノートPCがゲートウェイの役割まで兼ねればよいだけなのですが、そうするには2ノードが直通で通信できる必要があります。そして NAT 二重越しの家庭用ノートPC2台が直通で通信することは一般には不可能です — 外部から家庭用ルーターの22番ポートを叩いても、ルーターは「内部のどのデバイスへ送るか」を知らない構造になっているからです。メッシュVPNはこの問題を別のやり方で解決します。


メッシュVPN — ノード同士で直通

メッシュVPNの発想はシンプルです。中央ゲートウェイを経由せず、ノード同士で直接接続しよう。 ただし発想がシンプルでも実行は難しい。先ほど押さえたとおり、両側のノードがどちらも NAT の裏にいると、誰も先に接続を受けることができません。

解決の手がかりは 2つのピアが同時にお互い向けに outbound を撃つ ことです(hole punching、第3回で深掘り)。そのためには、誰かが2つのピアに「今だ、同時に撃て」と合図を出さなくてはなりません。その合図役がメッシュVPNの コーディネーションサーバー(coordination server) です。

ここでメッシュVPNの中核となる分離が現れます。通信を2つのプレーンに分けて考える、というものです。

Control Plane
Tailscale coordination server
  • 各ノードの WireGuard 公開鍵 の登録・配布
  • ノード一覧・ACL・MagicDNS マッピングの配布
  • ピア間の hole punching 合図中継 (DERP)
  • 実際のデータトラフィックは ここを流れない
中央集権 — 1か所で管理
Data Plane
ノード ↔ ノード (WireGuard)
  • ノード間の E2E 暗号化トンネル
  • 大半の時間は P2P direct で流れる
  • Tailscale 社のインフラを経由しない
  • 会社がトラフィック内容を見られない(構造的保証)
分散 — ノード同士で直接

コーディネーションサーバーは鍵とメタデータのみを扱い、実際のパケットはノード同士でやり取りする。

この分離がメッシュVPNのほぼすべての性質を決めます。

  • 会社がトラフィック内容を見られない — データプレーンはノード間E2E暗号化で、鍵はノード内部で生成されます。コーディネーションサーバーは公開鍵だけを受け取ります。
  • 会社のインフラ費用が小さい — コーディネーションサーバーはメタデータ(ノード一覧・ACL・鍵)のみを扱うので、ユーザー1人が一日中動画を見ても会社側のトラフィックはほとんど増えません。
  • 会社が落ちてもしばらくは動作する — ノードたちがすでに鍵とピア情報をキャッシュしていれば、コーディネーションサーバーが一時的に落ちてもデータプレーンはそのまま流れ続けます。

DERP relay も同じ文脈です — UDPがブロックされてP2P directが失敗すると、両ノードは Tailscale の DERP サーバー経由でパケットをやり取りしますが、DERP は依然として暗号化されたパケットをそのまま転送するだけ で復号しません。先ほど測定した28リージョンの DERP RTT 表に意味があるのはこのためです — そのインフラが無料で提供されつつも、会社が中身を覗かないことが構造的に保証されている、ということです。

この構造的保証の上に、Tailscale は外部認証と監査によっても同じ約束を明示しています。

Private keys never leave the device. All traffic is end-to-end encrypted, always.

Tailscale cannot read your traffic.

— Tailscale Security (tailscale.com/security)

  • SOC 2 Type II 認証(AICPA Trust Services Criteria — security / availability / confidentiality)
  • 外部セキュリティ会社 Latacora による定期監査
  • コード側:ピアレビュー + 自動化された静的解析 + 依存関係の脆弱性スキャン

推論(データプレーンがE2Eだから会社からは見えない)が、明示的な約束(会社からは見えないと約束している)と出会う地点です。どちらか一方だけでは不十分で、2つの保証が重なることが信頼モデルの安定性を作ります。

P2P direct をどう成立させるかについての Avery Pennarun の一行要約はこちらです。

“There is no magic bullet for NAT traversal. Tailscale’s approach: try everything at once, and pick the best thing that works.

— Avery Pennarun, “How NAT traversal works”


WireGuard — データプレーンの標準

データプレーン自体は Tailscale が作ったものではなく、WireGuard という別のプロトコルをそのまま使っています。WireGuard は Jason A. Donenfeld が作ったVPNプロトコルで、2020年1月に Linus Torvalds の net-next ツリーにマージされ、Linux 5.6(2020-03-29)のメインラインに含まれました

コードベースが小さく明快であることが最大の特徴で、Linus の次の発言が2018年の LKML 引用としてよく参照されます。

“Maybe the code isn’t perfect, but I’ve skimmed it, and compared to the horrors that are OpenVPN and IPsec, it’s a work of art.

— Linus Torvalds, LKML (Ars Technica 2018-08 引用)

WireGuard の暗号スタックは標準のビルディングブロックをシンプルに組み合わせています。

役割アルゴリズム
鍵交換Curve25519
対称暗号 + 認証ChaCha20-Poly1305 (AEAD)
ハッシュ関数BLAKE2s
鍵導出HKDF
ハッシュテーブル鍵SipHash24

ハンドシェイクは Noise Protocol Framework の IK パターンNoise_IKpsk2_25519_ChaChaPoly_BLAKE2s)をそのまま採用し、2メッセージで完了します。アルゴリズム交渉(cipher suite negotiation)自体が存在しないため、ダウングレード攻撃が構造的にブロックされている点が IPsec/TLS ファミリーとの最大の違いです。

Tailscale はこれを自前で再実装せず、公式の wireguard-go 実装 をそのまま組み込んでいます。メッシュのメタデータ側に欠陥があったとしても、データプレーンの暗号化は別システムの特性をそのまま受け継ぎます。

WireGuard が信頼されている度合いは、Linus の発言だけでなく採用例と学術的検証からも確認できます。

  • 商用VPNでの採用 — NordVPN、IPVanish、TunnelBear などが自社VPNのデータプレーンとして WireGuard を直接採用(Wikipedia)
  • 形式検証 — 2019年5月、INRIA の研究グループが WireGuard プロトコルの machine-checked proof を発表。すなわちセキュリティ特性が数学的に証明されました

これにより WireGuard は (a) Linus がメインラインに受け入れ(b) INRIA が形式検証を発表し(c) 商用VPNが自社製品にそのまま採用する という3重の根拠の上に立っています。Tailscale が自前で再実装せず、そのまま採用するという判断はこの根拠の上では自然です。


無料プランの上限(Personal)

ここからはコストの話に移ります。Tailscale の無料プランである Personal は次の上限を持っています(2026-05時点の公式ページ)。

6
ユーザー
従来の3名から拡大
ユーザーデバイス
台数制限なし
3
ACL グループ
ポリシー分岐用
50
タグ付きリソース
サーバー・サービス識別
Exit node
Subnet router
MagicDNS
Split tunneling
Tailscale SSH (5 hosts)
Funnel · Serve
DERP グローバルインフラ
Zero Trust ACL

個人インフラ用途では事実上天井の見えない水準。本シリーズの3ノードメッシュもデバイス数の上限内で十分な余裕。

ここで目を引くのは、有料プランにある「上位機能」の大半が無料プランにもそのまま入っている という事実です。Exit node、MagicDNS、ACL、Subnet router、DERPインフラ利用権 — 本シリーズが扱う内容のほぼ全部が Personal に含まれています。商用VPNの無料プランが通常「データ容量制限」や「サーバー数制限」をかけてくるのとは対照的です。

では、なぜ無料で出すのか

商用インフラがこの規模の上限を無料で開放する、というのは最初は奇異に見えます。しかし上で扱った control / data plane の分離から、答えの半分は自然に導かれます。

会社のインフラを流れるトラフィックが小さい。 ユーザーが釜山↔福岡で1080p動画を5時間視聴しても、Tailscale 社側のインフラに追加されるコストは鍵更新やメタデータ同期といったメッセージの数KB程度のみです。動画パケットは福岡 Mac と釜山ノートPC の間の P2P direct の上だけを流れます。ユーザーを1人増やすときの限界費用が事実上ゼロに近い、ということです。

残り半分は会社の GTM(go-to-market)戦略の側面です。Tailscale は明示的に 「個人は無料で十分に使ってもらい、会社で導入する段階で有料へ移行」 モデルを取っています。エンジニアが自分のノートPCで Personal プランに慣れた後、自分の会社で同じツールを使おうと提案する流れは、会社にとって最も安価な営業チャネルだからです。

会社側はこれを資本主義的な合理性だけで包装するのではなく、ミッション次元の発言としても明示しています。

If we’re going to fix the Internet, there’s no point only fixing it for big companies who can pay a lot.

— Tailscale 公式ブログ

上で整理したファンディング(累計 $272M)の上で、個人向け無料プランは会社のコスト負担側では十分に賄える一方、同時に次世代のエンジニアたちが社内導入を引っ張ってくるチャネルの役割を果たします。


なぜ他のメッシュVPNではなく Tailscale なのか

このシリーズが Tailscale を選んだ理由を短くまとめます。メッシュVPN/Zero Trust 領域には他の選択肢も少なくありません。

ツールコーディネーションサーバーデータプレーン無料上限本シリーズのシナリオでは
TailscaleSaaS(Tailscale 運用)WireGuard6 user / デバイス無制限本シリーズで採用
Headscaleself-hosted(オープンソース)WireGuard無制限(自前サーバー)コーディネーションサーバーを自前運用する必要あり
ZeroTierSaaS独自プロトコル25 ノードノード上限がすぐ埋まり、WireGuard でない
Nebulaself-hosted独自(Slack 出身)無制限(自前 PKI)PKI を自前運用する必要あり
TwingateSaaS(B2B 中心)独自5 user、ユーザーデバイス制限無料上限がすぐに足りなくなる
raw WireGuardなしWireGuard無制限鍵配布・NAT traversal をすべて自前。家庭用 NAT 二重越しはほぼ不可能
OpenVPN自前サーバーOpenSSL自前運用hub-and-spoke、NAT の裏の家庭用ノートPCには不向き

本シナリオの2つの決定要件は (a) 無料で動作すること(b) 両側の NAT を自動で越えること です。(a)は Headscale・Nebula の self-hosted 負担を排除し、(b)は raw WireGuard・OpenVPN の hub-and-spoke を排除します。残る候補は Tailscale と ZeroTier くらいで、ZeroTier は無料上限(25ノード)と WireGuard プロトコル非採用が弱点となります。


まとめ

質問答え
動機福岡で1年以上居住する中で、韓国の決済・銀行・コンテンツが海外IPで弾かれるパターンが累積
解決方式釜山実家の押し入れのノートPCを無人 exit node に、福岡 Mac から SSH でリモート運用
稼働結果(実測)P2P direct 50ms / Tunnel DOWN 24.9 Mbps / 無人で15時間以上の安定動作 / 自己修復トリガー 0件
Tailscale 社2019年トロント、Google 出身の4人(Brad Fitzpatrick を含む)、累計調達額 $272M
メッシュVPNの中核WireGuard(データプレーン)+ Tailscale コーディネーションサーバー(コントロールプレーン)の分離
WireGuard の強みLinux 5.6 メインライン、Noise IK + ChaCha20-Poly1305、コードのシンプルさ(”a work of art” — Linus)
会社がトラフィックを見られない根拠データプレーンがノード間 E2E で、秘密鍵がノードの外に出ない、DERP も暗号文のまま転送
無料で成立する理由会社インフラ側の限界費用 ≈ 0 + PLG 営業モデル + 明示されたミッション
Personal プラン6 user / デバイス無制限 / Exit Node・MagicDNS・ACL を含む

この第1回がシリーズの動機・結果、そしてそれが可能となる構造的根拠だったとすれば、第2回はそのインフラを実際に作るステージへ進みます。


参考資料


次回

第2回では、釜山実家のノートPCを実際に無人 exit node に仕立てるセットアップ + 無人運用の自己修復 + セキュリティ監査を一気に扱います。実家への1回の訪問で済ませる作業の全体像 と、福岡から実家に一度も行かずに新しいデバイスを追加できるリモート運用モデルを整理します。

第2回 — 実家セットアップ + 無人運用 + セキュリティ(執筆予定)

この記事は著者の CC BY 4.0 ライセンスの下で提供されています。