概要
https://nealle-dev.hatenablog.com/entry/2025/09/05/172816
詳細内容
## 大量のコールセンター通話を生成AIで自動要約し作業時間を劇的に削減
https://nealle-dev.hatenablog.com/entry/2025/09/05/172816
Nealleは、Amazon ConnectとClaude 3.5 Haikuを活用し、コールセンターの通話内容をニアリアルタイムで自動要約するシステムを構築し、オペレーターの業務効率を劇的に向上させた。
**Content Type**: ⚙️ Tools
**Scores**: Signal:5/5 | Depth:4/5 | Unique:3/5 | Practical:5/5 | Anti-Hype:4/5
**Main Journal**: 85/100 | **Annex Potential**: 80/100 | **Overall**: 84/100
**Topics**: [[生成AI, コールセンター自動化, AWS, LLM選定, アーキテクチャ設計]]
株式会社ニーリーは、月間数万件の通話が発生する社内コールセンターにおいて、オペレーターが通話内容を手動で要約する作業にかかる時間と工数削減を課題としていました。この課題に対し、同社は生成AIを活用した通話自動要約システムを構築し、劇的な業務効率化を実現しました。
システムはAmazon Connectで構築されたコールセンター環境と連携し、Amazon Connect Contact Lensで生成された文字起こしデータをAmazon Kinesis Data Streams経由で取得します。その後の要約処理において、特にウェブアプリケーションエンジニアにとって重要な設計上の工夫がいくつか見られます。
まず、通話の文字起こし結果(SEGMENTSイベント)の一時記録にはDynamoDBを採用し、要約処理は通話完了イベント(COMPLETED)をAmazon SQSに流し、別のLambdaで非同期に実行することで、LLM処理に伴うレイテンシーがシステム全体を阻害するのを回避しています。これは、リアルタイム性が求められるシステムで外部APIの遅延を吸収する一般的ながらも効果的なアーキテクチャパターンです。
LLMの選定では、先行検証したClaude 3 HaikuとClaude 3.5 Sonnetの課題を踏まえ、精度、レイテンシー、コストのバランスが取れたClaude 3.5 Haikuを採用。さらに、高頻度の通話要約に耐えるため、RateLimit対策としてクロスリージョン推論、レイテンシー対策としてレイテンシー最適化推論(当時プレビュー機能)といった先進的な技術を積極的に導入しています。これにより、通話終了後10秒以内という要件を満たす5〜7秒の要約レイテンシーを達成しました。
要約結果はチケット管理システムに記録されるだけでなく、文字起こしデータと共にS3に保存され、後日事業企画による通話内容分析にも活用されるなど、将来的なデータ活用の基盤も構築されています。この事例は、単にAIツールを導入するだけでなく、AWSのマネージドサービスとLLMを組み合わせ、スケーラビリティ、耐障害性、そして実用的なパフォーマンスを両立させるための具体的なアーキテクチャ設計と技術選定の知見を提供しており、同様の業務プロセス自動化を検討する開発者にとって非常に参考になるでしょう。