テストと継続的改善
AI搭載の自動スキャン、手動エキスパートレビュー、支援技術ユーザーテストを組み合わせた継続的改善プロセスの構築。
プレミアムコースコンテンツ
このレッスンはプレミアムコースの一部です。Proにアップグレードすると、すべてのプレミアムコースとコンテンツを利用できます。
- すべてのプレミアムコースを利用
- 1,000以上のAIスキルテンプレート付き
- 毎週新しいコンテンツを追加
🔄 前回のおさらい: レッスン6では、フォーム、ナビゲーション、エラー状態、複雑なインタラクションにインクルーシブデザインを適用しました。今回は、アクセシビリティが年次監査だけでなく継続的に改善されるテストと測定のシステムを構築します。
緑のチェックマークの先へ
多くの組織はアクセシビリティをプロジェクトとして扱います:監査、修正、完了。しかしサイトは常に変化します——新機能、新コンテンツ、新メンバー。継続的なテストなしではアクセシビリティは時間とともに劣化します。AI搭載のテストツールが継続的モニタリングを実用的にします。
アクセシビリティテストの3層
| 層 | テスト対象 | 頻度 | 担当 |
|---|---|---|---|
| 自動スキャン | 構造的WCAGコンプライアンス(基準の約30%) | 毎PR/デプロイ | CI/CDパイプライン |
| 手動エキスパートレビュー | インタラクション品質、キーボードフロー、スクリーンリーダー体験(基準の約70%) | 四半期 | アクセシビリティ専門家 |
| ユーザーテスト | 支援技術を使った実世界のユーザビリティ | 半年に1回 | 障害のある方 |
3層すべてが必要です。どの1層だけでも十分ではありません。
第1層:自動テスト
自動テストツール
| ツール | 最適な用途 | 統合方法 |
|---|---|---|
| axe DevTools | 最も包括的なルールセット、AI改善提案 | ブラウザ拡張、CI(axe-core) |
| WAVE | 視覚的エラーオーバーレイ、手動スポットチェック | ブラウザ拡張 |
| Lighthouse | 簡易スコアリング、Chrome組み込み | CLI(CI用)、Chrome DevTools |
| Pa11y | CI統合付きフルサイトクロール | CLI、CI/CDパイプライン |
✅ 確認クイズ: なぜ自動アクセシビリティテストを週次ではなく毎PRで実行すべきですか?(アクセシビリティの回帰は開発中に検出するのが最もコストが低い。10分前にPRを出した開発者はコントラスト問題を数秒で修正できる。週次スキャンで検出された場合、コンテキストスイッチ、調査、場合によっては新しいPRが必要——10倍の労力。シフトレフトのアクセシビリティテスト。)
第2層:手動エキスパートレビュー
自動ツールが評価できないもの:
- タブ順序が論理的か
- スクリーンリーダーの通知が文脈で意味をなすか
- コンテンツが認知的に明確か
- アニメーションがすべての状態でユーザー設定を尊重するか
- エラーメッセージが実際に役立つか
キーボードテスト: すべてのインタラクティブ要素にTabで到達可能か?タブ順序が視覚フローに一致するか?キーボードトラップがないか?フォーカスインジケーターが可視か?
スクリーンリーダーテスト: ページを線形に読んだとき意味をなすか?見出しが記述的で適切にネストされているか?画像に意味のある代替テキストがあるか?動的更新が通知されるか?
認知レビュー: 言語が明確で簡潔か?指示が曖昧でないか?ナビゲーションが予測可能で一貫しているか?
第3層:ユーザーテスト
リクルーティング: 障害タイプを横断して5-8人の参加者。スクリーンリーダーユーザー2人以上、キーボードのみ1人、拡大表示1人、認知障害1人を最低限含む。
タスクベーステスト(5-7の実世界タスク): 「サイトでXを見つけてください」「サインアップを完了してください」「返品ポリシーを見つけて返品を開始してください」
セッション形式: 参加者あたり45-60分、リモート(自身のデバイスと支援技術)、思考発話法、ナビゲーションパターンと回避策を観察。
進捗の測定
| メトリクス | ソース | 目標 | 頻度 |
|---|---|---|---|
| 自動スキャンスコア | axe/Pa11y | 95%以上 | デプロイごと |
| ページあたりの問題数 | 自動スキャン | 平均2件未満 | 毎週 |
| 回帰率 | CI/CD | 月あたり新規重大問題0 | 毎PR |
| キーボードタスク完了 | 手動監査 | 100% | 四半期 |
| スクリーンリーダータスク完了 | ユーザーテスト | 90%以上 | 半年 |
| 所要時間比 | ユーザーテスト | 支援技術ユーザー<2倍 | 半年 |
| ユーザー満足度 | テスト後アンケート | 平均4/5以上 | 半年 |
✅ 確認クイズ: 「所要時間比」(支援技術ユーザー vs 非支援技術ユーザー)が最も重要なアクセシビリティメトリクスの一つである理由は?(コンプライアンスではなく実世界のユーザビリティを測定するため。目の見えるマウスユーザーが2分でチェックアウト完了、スクリーンリーダーユーザーが20分かかるなら、技術的にアクセシブルでも実質的に使えない。目標の2倍以下は野心的だが、適切に設計されたインターフェースで達成可能。)
まとめ
- アクセシビリティテストには3層が必要:自動スキャン(構造的コンプライアンス)、手動エキスパートレビュー(インタラクション品質)、支援技術ユーザーとのテスト(実世界ユーザビリティ)
- 自動スキャンスコア(ツールが検出する30%)を唯一の成功指標にしない——残り70%は人間の評価が必要
- 毎PRで自動テストを実行し、回帰を最もコストの低い段階で検出
- 5-8人の参加者でのユーザーテスト(自身のデバイスと設定)が、コンプライアンスチェックでは見つからない体験上の問題を明らかにする
- 所要時間比(支援技術ユーザー vs 非支援技術ユーザー)が究極のアクセシビリティメトリクス——主要タスクで2倍以下を目標
次のレッスン
次は最終レッスン「総仕上げ:アクセシビリティプログラムの構築」——すべてを持続可能なアクセシビリティプログラムに統合します。
理解度チェック
まず上のクイズを完了してください
レッスン完了!