データアナリストにとって必要なPCスキル | FineReport | 帳票・データ可視化ツール    
       

データアナリストに必要なPCスキル

前回はデータアナリストになるために最も重要なポイントについて書きましたが、今回はデータアナリストになるための必要なPCスキルについて話したいと思います。

基礎編

1.Excelを使いこなす

Excelは簡単なものではありません。Excelで2次元テーブル、複雑な埋め込み型テーブルだけではなく、折れ線グラフ、縦棒グラフ、棒グラフ、面グラフ、円グラフ、レーダーチャート、コンボチャート、散布図などを作成し、 ピボットテーブル(BIに似ている多次元分析モデルCube)やVlookupなどの複雑な関数を含む高度な機能も実現できます。100万回以内のデータの処理は問題なく済ませます。そして、多くの高度なツールには、AI Machine Learning開発ツールなどのExcelプラグインがあります。

データ分析

2.SQL ServerまたはOracle SQLステートメントを身につける

データアナリストですが、できるだけITエンジニアとITツール(BIの多次元分析モデルなどでほしいデータを取得できないこともあります)に依存し、データを取得することをしないほうがよいです。複雑のSQLステートメンにjoin, group by, order by, distinct, sum, count, average,さまざまな統計関数が含められます。

3.データ視覚化ツールを習得する

例えば、Cognos、PowerBIやFinreportなど、それは企業が使用するツールに決められます。FineReportがあらゆるデータベースに接続できるほど強大なデータ接続機能を持っています。コーディングが不要なExcelライクの操作画面で、数式もと同じです。

特に分析レポートに以下のようなグラフが含まれると、目上の注目を集め、一目で理解させ、業務の本質を把握させられます。 そして専門アナリストにとって、多次元分析モデルCubeで帳票を簡単にカスタマイズでき、効率を大幅に向上させることができます。

データ分析

要約:

以上のスキルの80%をマスタリングすると、合格するアナリストになれるといえます。 この段階のデータアナリストは、各ツールを使用しデータを処理できる上に、業務シーンによって基本的な問題を分析し解決する方法を知る必要があります。 データアナリストにとって最も重要な点は、業務知識を身につけるすることです。業務を理解ことで、分析のロジックは明確になり、無駄なトライルも排除します。 時間が長ければ長いほど、知っている業務のデータを比較すれば、すぐ問題がどこに起こるかわかるようになります。

その後、もっと技術を深く研究すると、データサイエンティストの方向へ発展することまでできます。

上級編

1.スクレイピング技術を学ぶ

データ分析の需要が多くなってきているなか、Webから様々なデータを集める「スクレイピング」のニーズも高まってきています。プログラミングの知識を持つ方にとっては、スクレイピングは簡単ですが、プログラミングの知識がない素人として、Pythonなどを学び、スクレイピングプログラムを構築することに時間と労力を費やすことが必要です。そこでOctoparseなどのスクレイピングツールがオススメです。

Octoparseはコーディングを必要としなく、クリックするだけでWebサイトからデータをすばやく取得できるWebスクレイピングツールです。取得したデータはExcel、HTML、CSVのような構造化フォーマットで、またはご指定のデータベースに保存されます。それに、データ抽出をよりやすくするために、OctoparseはAmazon、楽天市場、Twitterなど数多くのすぐに使えるWebスクレイピングテンプレートを提供しています。パラメータ(ターゲットWebサイトのURL、検索キーワードなど)を入力するだけで、データが抽出されてきます。クラウド型プラットフォームも提供するので、スケジュール設定が可能で、リアルタイムデータを自動抽出し、Webサイトの更新情報をいつでも入手できます。自社にノウハウがないが、課題解決にデータを収集したい場合は、ぜひWebスクレイピングツールを試してみてください。

2.統計学を学ぶ

純粋な機械学習はアルゴリズムの予測と実現を強調しますが、統計は常に「解釈の可能性」を強調しています。 たとえば、今日のinstagramの株価が20%上昇している場合、株価を予測するモデルをfacebookに使用し、上司に報告します。 統計学はこのような役割を果たしています。

  • データマイニングに関連する統計方法(多次元ロジスティック回帰分析、非線形回帰分析、判別分析など)
  • 定量的分析手法(時系列解析、確率モデル、最適化)
  • 意思決定分析(多目的意思決定分析、意思決定ツリー、影響図、感度分析)
  • 競争優位性を立てる分析(プロジェクトや成功事例を通し、基本的な分析コンセプトを学ぶ)
  • データベースエントリ(データモデル、データベース設計)
  • 予測分析(時系列分析、主成分分析、ノンパラメトリック回帰、統計的プロセス制御)
  • データ管理(ETL(抽出、変換、ロード)、データガバナンス、管理責任、メタデータ)
  • 最適化と経験則(整数計画、非線形計画法、局所探索、スーパーインスピレーション(シミュレーテッドアニーリング、遺伝的アルゴリズム))
  • ビッグデータ分析(非構造化データコンセプトの学習、MapReduce技術、ビッグデータ分析手法)
  • データマイニング(クラスタリング(k-平均法、セグメンテーション法)、関連ルール、因子分析、生存時間分析)
  • その他、以下から任意な二つ選んでください。

  • 確率モデル(ソーシャルネットワーク、テキスト分析、Web分析、財務分析、サービス業界の分析、エネルギー、ヘルスケア、サプライチェーン管理、統合マーケティングコミュニケーション)
  • リスク分析と運用分析のコンピュータシミュレーション
  • ソフトウェアレベルの分析(組織レベルの分析課題、ITおよびビジネスユーザー、変更管理、データ課題、結果のプレゼンテーションおよびコミュニケーション)
  • 3.AI Machine Learningアルゴリズムをマスターし、Python / Rなどのツールでモデルを立てられる

    伝統的なBI分析は、過去に何が起こったのか、現在何が起こっているのか答えられますが、将来についての問題はアルゴリズムに依存する必要があります。市場のセルフサービスBIツールに一部の分析モデルが組み込まれているとしても、全面的な深層分析にはPython / Rのようなデータマイニングツールが必要です。さらに、従来のツールによる手作業の分析では、ビッグデータ間の隠れた関係を掘り出すことはできません。この時、アルゴリズムに任せると、驚く結果が出るに決まっています。

    その中で、統計分析向けのオープンソースプログラミング言語および運行環境「R」が注目されています。 Rの強みは、豊富な統計分析ライブラリを含めるだけでなく、結果を可視化し、簡単なコマンドを実行することで高品質なグラフ生成機能も備えています。そのうえ、標準状態でサポートされていない関数やデータセットを使用できるためのCRAN(Comprehensive R Archive Network)というパッケージ展開メカニズムを備えています。 R言語は強大な機能を持っていますが、しかし学ぶのは挑戦的で、pythonからスタートするとお勧めします。

    データ分析

    最後に、なんといっても、業務分析とデータ分析の価値はビジネス価値にあり、データ人材の最終的に企業運営の方向と戦略スタッフに成長するわけです。たとえば、データストラテジストはIT知識と経験を使用しビジネス上の意思決定を行うことができ、データサイエンティストは専門知識とIT技術を結びつけ、複雑なモデルやアルゴリズムを開発でき、分析コンサルタントは実用的な業務知識と分析経験を結合し、次の業界ヒットに集中できます。

    要するに、コミュニケーション能力、マネジメントスキルそしてビジネスの考えが必要とされます。特定のポジションに限定されるものではなく、より高いポジションから考え、会社のために利益を求めるべきです。その同時に、どうすれば「データ分析」で価値を発揮し、企業運営を推進するかについて考えるのも大事です。

    関連記事

    人気記事

    トップへ

    Copyright@2019 Fanruan Software Co.,Ltd

    All Rights Reserved