知の共有化

知の共有化とサイバーセキュリティ対策

DX時代に対応したデジタルアーカイブの構築、知識インフラの構築に必要なデジタルリテラシー。サービスの円滑な運用のためのサイバーセキュリティ対策のリテラシーも含めて。

データサイエンス領域のスキル標準「ITSS+」【2017年4月13日】

www.xmind.net

1 位置付け
1.1 iコンピテンシ・ディクショナリの補足として活用
1.2 従来のiコンピテンシ・ディクショナリでは、まだに辞書化が十分でない領域
1.3 ビッグデータ人工知能(AI)など、第4次産業革命に向けて必要性の高い領域のサービス・システムの構築・運用における専門分野を具体化
1.4 IPAがこれまで公開してきたITSSには含まれていない新規の領域。一般社団法人データサイエンティスト協会との協業により策定。
2 スキルカテゴリ
2.1 ビジネス
2.1.1 課題背景を理解した上で、ビジネス課題を整理し、解決する。
2.2 データサイエンス
2.2.1 情報処理、人工知能統計学などの情報科学系の知恵を理解し、活用する。
2.3 データエンジニアリング
2.3.1 データサイエンスを意味のある形に使えるようにし、実装、運用する。
3 タスク構造
3.1
4 タスク
4.1 分析プロジェクトの立ち上げと組み込み後の業務設計
4.1.1 前提条件の明確化
4.1.1.1 分析プロジェクト(データサイエンスを活用し、課題解決を行う一連の取組)のステークホルダーを明らかにする
4.1.1.2 分析プロジェクトの背景や問題意識を踏まえて目的とゴールを明らかにし、ステークホルダー間で共有する
4.1.2 目標の明確化
4.1.2.1 分析プロジェクトの目標を設定する
4.1.2.2 分析プロジェクトの目標と評価方法を具体化し、定量的な成功基準を設定するとともに、成功基準の判定時期・判定者を決定する
4.1.3 推進体制設計
4.1.3.1 分析プロジェクトの難易度に応じ、実施体制と役割分担を、メンバーの個々のデータ分析スキル、チームの総合的なバランスを考慮し、決定する
4.1.3.2 分析プロジェクトの実施計画を作成する
4.1.3.3 分析プロジェクトに必要なコストと分析プロジェクトの実施によって得られる利益(コスト削減効果を含む)を算出する
4.1.3.4 分析プロジェクトの実現性について評価・検討する
4.1.4 計画の承認
4.1.4.1 分析プロジェクトの実施計画について、ステークホルダーに説明し、必要に応じて調整を行って合意を形成する
4.1.4.2 分析プロジェクトの実施計画について、ステークホルダーの承認を得る
4.1.5 環境整備
4.1.5.1 分析プロジェクトに必要なハードウェア環境を設計・整備する
4.1.5.2 分析プロジェクトに必要な通信環境を設計・整備する
4.1.5.3 分析プロジェクトに必要なソフトウェア環境を設計・整備する
4.1.5.4 不必要な情報の漏れがないように暗号化を行い、防御態勢を解析開始前に整える
4.1.6 組み込み後の業務設計
4.1.6.1 データ分析結果を利用・適用する対象業務のプロセス等を把握/設計する
4.1.6.2 取扱データ別にデータの利活用及び開示のガイドラインと管理・アクセス方法をステークホルダー間で設定する
4.1.6.3 対象業務の運用体制や運用方法を決定する
4.1.6.4 対象業務の目的や目標を確認し、モニタリング方針・方法やモニタリング時のKPIを決定する
4.2 データの作成と収集
4.2.1 データ分析設計
4.2.1.1 データの収集方法、加工方法、分割・統合、蓄積・保存方法等の処理プロセスを決定する
4.2.1.2 対象業務に必要となるデータの種類と対象業務の目的に合ったデータ分析手法及びモデル要件(安定性・頑健性、監査性、保守性など)を検討する
4.2.1.3 モデルの構築手法、評価手法(予測性能、判別性能、クラスタリング性能など)、検証方法(クロスバリデーションや、リサンプリングなどによる検証のためのデータ分割方法)を検討する
4.2.2 データ収集
4.2.2.1 対象業務の目的を踏まえて利用・収集可能なデータとその収集方法(WEBデータの収集、システムからのデータの出力・加工、外部データの獲得・連携等)を決定する
4.2.2.2 検討したデータが現実的に利用・収集可能かどうかを確認・検証し、利用するデータを収集する
4.3 構造化データ加工
4.3.1 データ加工
4.3.1.1 重複や欠損、外れ値、異常値など、除外または補正するべきデータのクレンジング方針を検討し実行する
4.3.1.2 分析目的に照らし、必要十分なサンプリングデータを実験計画法などを用いて作成する
4.3.1.3 分析目的に照らして、必要な閾値及び分布等を踏まえ、データを加工・整形する
4.3.1.3.1 (例)データ結合、データ型変換、転置
4.3.2 データ利用環境の構築
4.3.2.1 利用者向けのデータマート等の要件を把握する
4.3.2.2 利用者向けのデータマート等を設計・準備する
4.3.2.3 必要に応じて利用者向けのシステムやインタフェースを準備する
4.4 解析用データ準備
4.4.1 入力変数データと目的変数データの作成
4.4.1.1 目的変数、及びその必要性(教師なし学習など)を定義し、目的変数データと説明変数の元となる入力データを作成する(目的変数については、変数の内容だけではなく時点や期間も考慮する)
4.4.2 データの準備
4.4.2.1 モデルを構築するために十分なデータ(学習データ)と評価に必要なデータ(モデルを検証・チューニングするための検証データや、最終確認を行うためのテストデータなど)に分割するとともに、モデリング手法に応じ必要なデータの加工を行う(数値の正規化、データのシャッフルなど)
4.5 データ解析
4.5.1 データ集計、抽出
4.5.1.1 データ集計・抽出の設計をする(検索条件・抽出条件・集計関数などを決定する)
4.5.1.2 データ集計・抽出を行う
4.5.2 性質・関係性の把握
4.5.2.1 収集したデータの基礎統計量(平均値、中央値、最頻値、標準偏差、分散など)を確認し、全体のバラツキや傾向、異常値などを把握する
4.5.2.2 収集したデータを異なるレイヤで集計し、データが本来持つべき意味や活動目的の視点から違和感がないかどうかを見極める
4.5.2.3 収集したデータに対する基本的な分析(クロス集計、可視化など)を実施し、基本的な2変数間の関係性や傾向を把握する
4.5.2.4 収集した3次元以上の多変量データに対する分析(平行座標プロット、ネットワーク分析等)を実施し、多変量におけるデータ間の関係性や傾向を把握する
4.5.2.5 データ間にどのような関係性(例:因果関係、ボトルネックなど)があるかを事前検討し、検証方法(手法例:主成分分析、因子分析など、定義例:距離定義など)を決め、関係性の有無を検証する
4.5.3 検定
4.5.3.1 医薬品開発などにおいて、母集団の平均の推定、2群や多群間の平均値の差などの有意差を検定する(t検定、クラスカル・ウォリス検定など)
4.5.3.2 品質管理などにおいて、サンプリングを行い、抽出されたサンプルから不良率などの検定を行い、評価する
4.5.3.3 A/Bテストの実施により得られた結果に対し、標本数が少ない場合、検定を行い有意差を判断する(カイ二乗検定など)
4.5.4 予測・判別
4.5.4.1 分析目的や選択するモデル手法の観点から、必要となる説明変数データや特徴値を作成する(手法例:p値による選択、正則化による除外・抑制、機械学習による自動作成など)
4.5.4.2 (数値予測)売上予測、価格予測、発生確率予測など数値の予測モデルを構築する(手法例:重回帰分析、ロジスティック回帰、ニューラルネットワークなど)
4.5.4.3 (2値の判別・予測)与信可否判断や迷惑メール判別、顧客離脱など、二つの状態に対する判別・予測モデルを構築する(手法例:ロジスティック回帰、サポートベクターマシンSVM)など)
4.5.4.4 (クラスの判別・予測)新規顧客のセグメントや将来の顧客行動パターンなど、新たに発生するデータを分類するための判別・予測モデルを構築する(手法例:決定木、ニューラルネットワークなど)
4.5.4.5 (時系列予測)株価や景気変動など、過去の時系列データに基づく将来の推移・変動予測モデルを構築する(手法例:自己回帰モデル移動平均モデル、ARIMA、SARIMAなど)
4.5.5 グルーピング
4.5.5.1 顧客のターゲティング/セグメンテーションや、データ傾向の把握を行うため、着目する類似度、距離を定義し、対象をいくつかのグループに分類する(必要に応じて、分析の目的と評価指標に従って適切なクラスタやグループ数を決定する)(手法例:階層クラスター分析、非階層クラスター分析(k-means等)、自己組織化マップ(SOM)など)
4.5.5.2 故障検知、不正検知などを目的として、データ全体の傾向から著しく離れた対象(外れ値)や、既知のデータとは振る舞いが異なる異常パターンを早期検知/検出する(手法例:k近傍法、One-class SVM、反復子ニューラルネットワーク、及び検定、統計モデル、クラスター分析に基づく手法など)
4.5.6 パターン発見
4.5.6.1 ヒトの行動データや製品のログデータなどにおいて頻出するパターンを抽出する(手法例:アプリオリアルゴリズムなど)
4.5.6.2 行動データや意識調査データから、コンテキストや意図/ニーズを把握する(手法例:主成分分析や因子分析など)
4.5.6.3 バイタルデータや行動データから、個体特有のパターンを学習し、個人を識別する(手法例:ニューラルネットワークなど)
4.5.6.4 行動や嗜好の類似性/共起性を抽出し、レコメンデーションルールを作成する(手法例:協調フィルタリングなど)
4.5.7 最適化
4.5.7.1 最適化問題(金融ポートフォリオ、生産計画、勤務シフト、貨物積載量、広告配信量など)において、対象の条件や制約を定義する
4.5.7.2 定義した条件を元に変数、目的関数、制約を定式化する
4.5.7.3 目的に適したアルゴリズム・解法を選択し、モデリングし、最適化する(手法例:線形計画法非線形計画法、組み合わせ最適化など)
4.5.8 シミュレーション
4.5.8.1 企業収益や交通量などの予測において、現実のデータ分布を観察し、シミュレーションの前提となるモデル式、確率分布、初期値、境界条件を定義する
4.5.8.2 モンテカルロ法、エージェントベースモデルなどの技法から適切な手法を選択し、モデル式やパラメータを設定しシミュレーションを実行する
4.6 データ可視化
4.6.1 可視化の企画とデータ収集
4.6.1.1 可視化の目的、メッセージを明確にする
4.6.1.2 目的・メッセージに沿った、分析の比較軸候補を洗い出す
4.6.1.3 必要なデータ、その取得項目・形式・精度を決める
4.6.1.4 データ入手・転送・蓄積方法を設計・実行する
4.6.2 2軸チャート化
4.6.2.1 一般的な2軸チャート化においてチャート種、軸、値のきざみを決める
4.6.3 多次元の可視化
4.6.3.1 多次元の可視化(平行座標、散布図行列など)において、同時に表現する属性数を調整する
4.6.4 関係性の可視化
4.6.4.1 統計的な関係性の可視化(ネットワーク構造、グラフ構造、階層構造など)において、ノード、エッジ、クラスター数等を特徴把握できる規模に調整する
4.6.5 地図上の可視化
4.6.5.1 平面地図上に重ね合わせた可視化(GPSデータなど)において、位置情報への各種データを重ね合わせや、必要に応じた地図の地域分割を行う
4.6.6 挙動・軌跡の可視化
4.6.6.1 挙動・軌跡の可視化(Eye trackingなど)において、下地となる図に合わせて座標データを定義する
4.6.6.2 見たいデータ粒度の挙動・軌跡となるようサンプリングやアンサンブル平均によってデータ量を減らす
4.6.7 ダイナミックな可視化
4.6.7.1 必要な時間分解能で表現できるように特異点の抽出や次元圧縮を通じてデータを圧縮する
4.6.8 リアルタイム可視化
4.6.8.1 必要なリアルタイム性に応じてデータの分割転送、復元をコーディングする
4.7 非構造化データ処理
4.7.1 方針検討
4.7.1.1 目的を踏まえ、非構造化データの処理方針を検討する(言語:ポジネガ分析など、画像:画像認識など、音:本人認証など)
4.7.2 言語処理
4.7.2.1 (データ収集)Webクローリング、DBアクセス、アンケート、文字認識、音声認識などの結果からテキストデータを収集し、HTMLタグ等の不要な表現を除去して分析しやすいように整備する
4.7.2.2 (辞書構築)当該分野の専門用語や、同義語、類義語、対義語、人名・地名の辞書を、クラウドソーシングによる多数のユーザへのアンケートで収集したり、ブートストラップ法による事例の半自動生成手法を用いて構築する
4.7.2.3 (構造解析)構築した辞書を活用してパラメータ調整を行った形態素解析器、構文解析器、固有表現抽出器などを用いてテキストデータの構造解析を行う
4.7.2.4 (特徴量変換)低頻度語やストップワードの除去、名詞や動詞の正規化などを行い、テキストデータを単語集合(Bag-of-words)、分散表現などの分析しやすい特徴量に変換する
4.7.2.5 (教師あり分析)人手もしくは半自動で正解ラベルを収集したのち、SVMなどの教師あり分類学習を行い、文書のジャンルや感情の判定、単語の品詞やカテゴリの推定を行う
4.7.2.6 (教師なし分析)トピックモデル(Latent Dirichlet Allocation/LDA)などの統計モデルを用いて、文書をクラスタリングして類似文書にまとめたり、文書中の代表的なトピックの推定を行う
4.7.2.7 (情報検索)転置インデックスのような索引構造や潜在意味インデクシング(LSI)のような次元圧縮手法を用いて文書の厳密・類似検索を高速に行う
4.7.2.8 (文書生成)Nグラム統計モデルや再起ニューラルネットワーク(RNN)などを用いて、翻訳、要約、対話、Q&Aなどの出力テキストを生成する
4.7.3 画像処理
4.7.3.1 画像データに付随するメタデータ(何の画像か、撮影条件、関心領域(Region of Interest )等)を紐付ける
4.7.3.2 画像データを生成したセンサー特性にあった補正・修正を行う
4.7.3.3 分析しやすいデータフォーマット(チャンネルの設定、画素値の正規化・レベル変換、サイズ等)に変換する
4.7.3.4 (類似画像推定)画像間の類似度を定義する順序や距離、画像特徴量を与える手法を決定するとともに、類似画像を列挙するための特徴量を適切に保存・検索する手法も同時に検討する
4.7.3.5 (画像認識)画像のメタデータから認識対象のラベルデータを抽出し、画像特徴量を与える手法、ラベルデータを対応付ける手法を決定する
4.7.3.6 (画像復元)復元精度を測る指標を選び、指標を最適化するような復元手法を決定する
4.7.4 音声/音楽処理
4.7.4.1 音をデジタルデータとして、wav や mp3 などにフォーマットする
4.7.4.2 音データからノイズ、雑音などの余計な音を識別して除去する
4.7.4.3 分析目的にあったデータ(音高、音量など)を抽出する
4.7.4.4 (本人認証や話者識別)音声データから抽出したスペクトラムやメル周波数ケプストラム係数(MFCC)などの特徴量を用いて、本人認証や話者識別のためのパラメータの推定・モデル構築・精度評価を行う
4.7.4.5 (感情分析)音声データから抽出した周波数や音量変化量などの特徴量を用いて、感情を識別するパラメータの推定・モデル構築・精度評価を行う
4.7.4.6 (テキスト化)音声データから抽出した周波数を用いて音響モデルを構築し、さらに音声データから書き起こしたテキストから言語モデルを構築し、テキスト識別するためのパラメータの推定・モデル構築・精度評価を行う
4.7.4.7 (音楽分析)音楽データから、周波数やMFCC、さらにテンポやコード進行などの特徴量を抽出し、ジャンルやアーティストなどを識別するパラメータ推定・モデル構築・精度評価を行う
4.8 評価
4.8.1 モデル評価
4.8.1.1 (性能評価・確認)データ分析設計により定めた評価手法によりモデル評価を行う(モデルパフォーマンスに対する目標水準が設定可能な場合においては、その水準を満たしているか評価する)
4.8.1.2 (性能検証)データ分析設計にて定めた検証手法により、モデルパフォーマンスの検証を行い、必要に応じて説明変数やパラメータのチューニングを行う(データ解析タスクの再実施)
4.8.1.3 (モデル理解)モデルの構造から入力と出力の関係性を理解する(各説明変数の寄与度確認や、モデル式に対する業務的解釈など)
4.8.1.4 (モデル選定)候補モデルに対する最終なパフォーマンス確認を行い、業務要件やモデル要件も考慮の上、最終モデルを選定する
4.8.2 分析評価
4.8.2.1 (仮説の検証)事前に打ち立てた関係性や法則などの仮説と分析結果を照らし合わせ、活動目的に対する有効性の観点から、その妥当性を判断する
4.8.2.2 (仮説の探索)データ分析結果から得られた関係性や法則などの仮説を確認し、またその仮説は活動目的に有効なものか判断する
4.9 業務への組み込みと評価
4.9.1 業務への組み込み
4.9.1.1 分析結果を業務で活用するためのソリューション開発を行う(小規模な表計算ソフトでのツール開発や大規模ビッグデータシステムへの組み込みなど)
4.9.2 組み込み結果の評価
4.9.2.1 予め検討したKPIに基づき、データ分析結果を活用する業務が当初の想定通りに実施されているかどうかをモニタリングする
4.9.2.2 当初の目的と照らして、データ分析結果を活用する業務の成果を評価する
4.9.2.3 業務の成果を踏まえて、必要に応じてデータ処理方法や分析方法等について再検討を行う
4.9.3 データ分析結果活用による業務改善
4.9.3.1 データ分析結果を活用して、業務上の問題点や課題を明らかにする
4.9.3.2 明らかになった業務上の問題点や課題に対する対応策を検討する
4.9.3.3 検討された対応策について、業務への反映と改善を図る
4.9.4 ビジネス上の効果の把握とさらなる改善
4.9.4.1 データ分析結果の利用による業務上の成果を必要なステークホルダーに報告・フィードバックする
4.9.4.2 ステークホルダーからの意見や要望を収集し、さらなる改善に活かす
5 スキルチェックリスト【データサイエンティスト協会】