AIモデル作成とアプリケーション開発ハンズオン

第1章:イントロダクション

1. はじめに

皆さん、こんにちは!この研修へようこそ。

「AI(人工知能)」という言葉をニュースや日常会話で耳にする機会が、ここ数年で一気に増えました。スマートフォンで最適なルートを検索したり、おすすめの商品が表示されたり、私たちの身の回りには既に多くのAI技術が活用されています。

しかし、「AIとは一体何なのか?」「どうやって作られているのか?」と聞かれると、難しそう、専門家でないと無理そう、と感じる方も多いのではないでしょうか。

本研修の目的とゴール

この研修の目的は、AI開発の「難しそう」というイメージを払拭し、その面白さと可能性をご自身の手を動かしながら体感していただくことです。

最終的なゴールは、以下の2点です。

  1. プログラミング不要の「ノーコードツール」を使い、自分だけのオリジナルAIモデルを作成できるようになる。
  2. 作成したAIモデルを使い、簡単な画像認識アプリケーションを開発できるようになる。

専門的な数学の知識や高度なプログラミングスキルは必要ありません。AI開発の第一歩を、楽しみながら一緒に踏み出しましょう!

2. AI(人工知能)と機械学習の基礎

まず、AIの世界を探検するための基本的な言葉と考え方を整理しておきましょう。

AIとは何か?

AI(Artificial Intelligence / 人工知能)とは、一言で言うと「人間のように考え、学ぶコンピュータープログラム」のことです。明確な定義は専門家の間でも分かれますが、コンピューターがまるで人間のようにデータから学習し、判断し、次の行動を予測する技術全般を指すと考えてください。

AI、機械学習、ディープラーニングの関係性

よく似た言葉として「機械学習」や「ディープラーニング」があります。これらの関係は、下図のような入れ子構造でイメージすると分かりやすいです。

  • AI(人工知能):最も大きな概念。「人間のような知能」を実現するための幅広い技術や研究分野。
  • 機械学習(Machine Learning):AIを実現するための一つの手法。コンピューターが大量のデータから自動的にパターンやルールを学習すること。
  • ディープラーニング(深層学習):機械学習をさらに発展させた手法の一つ。人間の脳の神経回路(ニューラルネットワーク)を模した複雑な構造を持ち、特に画像認識や音声認識などの分野で驚異的な性能を発揮します。

今回の研修では、この「機械学習」のアプローチを使って、「画像に何が写っているか」をAIに学習させていきます。

AIはどのように活用されているか?

私たちの身の回りには、すでにたくさんのAIが活用されています。

  • 画像認識:工場の製品検査(傷や不良品の検知)、スマートフォンの顔認証、車の自動運転など
  • 音声認識:スマートスピーカーへの指示、議事録の自動文字起こしなど
  • 自然言語処理:迷惑メールの自動振り分け、機械翻訳、チャットボットによる問い合わせ対応など
  • 予測・推薦:ネット通販サイトでの商品レコメンド、天気予報、株価の予測など

このように、AIは様々な形で私たちの生活やビジネスを支える、なくてはならない技術になっています。

3. ノーコードツール革命

これまでのAI開発は、Pythonなどの専門的なプログラミング言語を扱うデータサイエンティストやエンジニアの仕事でした。しかし、近年「ノーコードツール」が登場したことで、その常識は大きく変わりつつあります。

ノーコードツールとは?

ノーコードツールとは、その名の通り「ソースコードを一行も書かずに」アプリケーションやシステムを開発できるツールの総称です。パズルのようにブロックを組み合わせたり、画面の指示に従ってクリックやドラッグ&ドロップで操作したりするだけで、目的の機能を実現できます。

AI開発におけるノーコードツールの役割

このノーコードの考え方をAI開発に応用したのが、今回私たちが使用する「Teachable Machine」です。

Teachable Machine(ティーチャブル・マシン)

Googleが提供する、Webブラウザ上で誰でも簡単に機械学習モデルを作成できるツールです。

Teachable Machineを使えば、これまで専門家が複雑なコードを書いて行っていた以下のような作業を、数クリックで完了させることができます。

  • AIに学習させたいデータの準備
  • 学習の実行
  • モデルの性能テスト
  • 作成したモデルの書き出し(エクスポート)

この研修では、Teachable Machineがいかにパワフルで、そして楽しいツールであるかを体験していただきます。AI開発のハードルを劇的に下げてくれるこのツールを使って、あなただけのAIモデル作りに挑戦してみましょう。

はい、承知いたしました。

Teachable Machineを使った演習の章を作成します。スクリーンショット画像を挿入する想定で、操作の手順が具体的にイメージできるように記述しました。


第2章:【演習】ノーコードツールによるAIモデルの作成

さあ、いよいよここからがハンズオンです!

この章では、ノーコードAIツール「Teachable Machine」を使って、オリジナルの画像分類AIモデルを作成します。ソースコードは一切不要です。マウス操作だけで、AI開発のプロセスを楽しく体験していきましょう。


1. 演習の概要とゴール設定

本演習で作成するもの

今回は、最もシンプルで分かりやすい「じゃんけん」を認識するAIモデルを作成します。

具体的には、Webカメラに映した「グー」「チョキ」「パー」の手の形を、AIがリアルタイムで見分けられるようにします。

本演習のゴール

この演習を終えると、あなたは以下のことができるようになります。

  • Teachable Machineの基本的な操作方法を習得する。
  • AIの学習に必要な「教師データ」の集め方と、その重要性を理解する。
  • 自分の手でAIモデルをトレーニングし、その性能をテストする一連の流れを体験する。
  • 完成したAIモデルを、次の章で使うためにエクスポート(保存)する。

2. STEP 1:プロジェクトの準備とデータ収集

まずは、AIモデルを作成するためのプロジェクトを準備し、AIに学習させるための「教師データ(お手本となる画像)」を集めます。

① Teachable Machineにアクセス

お使いのWebブラウザ(Google Chromeを推奨)で、以下のURLにアクセスしてください。

Teachable Machine: https://teachablemachine.withgoogle.com/

トップページが表示されたら、「使ってみる」ボタンをクリックします。

② 新しいプロジェクトを作成

次に、「新しいプロジェクト」の中から「画像プロジェクト」を選択します。

モデルの種類を聞かれますので、「標準の画像モデル」をクリックしてください。

③ クラスの準備

AIに「何を」見分けさせたいかを定義する「クラス」を作成します。今回は「グー」「チョキ」「パー」の3種類を見分けさせたいので、3つのクラスを用意します。

  1. Class 1 と書かれている部分をクリックし、名前を「グー」に変更します。
  2. クラスを追加」ボタンをクリックして、新しいクラスを追加します。
  3. 同様に、クラス名をそれぞれ「チョキ」「パー」に変更します。

④ 教師データの収集

いよいよ、各クラスにAIのお手本となる画像を登録していきます。今回はPCに内蔵されているWebカメラを使って、リアルタイムで画像を収集します。

  1. グー」クラスの下にある「ウェブカメラ」ボタンをクリックします。
  2. カメラへのアクセス許可を求められたら、「許可」してください。
  3. カメラの映像が表示されたら、「グー」の形を手で作ります。
  4. 長押しして録画」ボタンを長押しして、様々な角度や少し位置を変えながら、最低でも50枚以上の「グー」の画像を撮影します。
    • ポイント: 明るい場所で、背景はなるべくシンプルな場所を選びましょう。少しずつ手の角度を変えたり、大きさを変えたりすると、AIが賢くなります(これを多様性を持たせると言います)。
  5. 同様に、「チョキ」クラスと「パー」クラスでも、それぞれの画像を50枚以上撮影してください。

3. STEP 2:AIモデルの学習

お手本となる教師データが集まったら、いよいよAIに学習(トレーニング)させます。と言っても、操作はボタンを1回クリックするだけです!

① トレーニングの開始

画面の中央にある「モデルをトレーニングする」ボタンをクリックします。

② 学習プロセス

トレーニングが始まると、数秒~数十秒ほど処理に時間がかかります。このとき、Teachable Machineの裏側では、アップロードされた大量の画像から「グー」「チョキ」「パー」それぞれの特徴(指の形、輪郭など)をAIが自動的に見つけ出し、学習しています。

注意: トレーニング中はブラウザのタブを閉じないでください。

③ 高度な設定(参考)

「トレーニング」ボタンの横にある「詳細設定」をクリックすると、「エポック」「バッチサイズ」「学習率」といったパラメータを調整できます。これらはAIの学習の仕方を細かく制御するための設定ですが、今回はデフォルトのままで問題ありません。まずはAIが学習するプロセスを体感することを優先しましょう。


4. STEP 3:モデルの評価と改善

学習が完了すると、画面右側の「プレビュー」ウィンドウで、完成したAIモデルの性能をすぐにテストすることができます。

① リアルタイムテスト

プレビューウィンドウにWebカメラの映像が映し出されていることを確認してください。

カメラに向かって、ゆっくりと「グー」「チョキ」「パー」の手を出してみましょう。

AIがあなたの手をどのクラスだと判断しているか、各クラスの下にある出力バーがリアルタイムで動くはずです。例えば、「グー」を出すと「グー」のバーが一番長くなれば、AIは正しく認識できています。

② 評価と改善

  • うまく認識されない手はありますか?
  • 何も出していないのに、特定のクラスに反応してしまいませんか?

もし認識精度が低いと感じたら、STEP 1に戻り、うまく認識されなかったパターンの画像を追加で学習させてみましょう。例えば、「チョキ」がうまく認識されないなら、「チョキ」クラスに様々な角度や形の「チョキ」の画像を追加し、再度トレーニングを行います。

この「データ収集 → トレーニング → 評価 → データ追加」というサイクルを繰り返して、AIモデルの精度をどんどん高めていくのが、機械学習開発の基本的なプロセスです。


5. STEP 4:学習済みAIモデルのエクスポート

満足のいくAIモデルが完成したら、次の章のアプリケーション開発で使えるように、モデルをファイルとしてエクスポート(書き出し)します。

① モデルのエクスポート

プレビューウィンドウの上にある「モデルをエクスポートする」ボタンをクリックします。

② フレームワークの選択

ポップアップウィンドウが表示されたら、上部のタブから「Tensorflow」を選択します。

その中の「Keras」が選択されていることを確認し、「モデルをダウンロード」ボタンをクリックします。

③ ファイルのダウンロード

モデルの変換処理が開始され、しばらくするとconverted_keras.zipという名前のZIPファイルがダウンロードされます。

このZIPファイルを解凍すると、中にkeras_model.h5とlabels.txtという2つのファイルが入っていることを確認してください。

  • keras_model.h5:これがAIモデル本体です。画像の「特徴」を学習した結果が詰まっています。
  • labels.txt:クラス名(グー, チョキ, パー)が書かれたラベル情報です。

この2つのファイルは、次の第3章でPythonアプリケーションに魂を吹き込むための、非常に重要なファイルです。大切に保存しておいてください。


お疲れ様でした!これで、あなただけのオリジナルAIモデルが完成しました。次の章では、このモデルを使って実際に動くアプリケーションを開発していきます!

第3章:【演習】学習済みAIモデルを用いたアプリケーション開発

前の章では、あなた自身の手でAIモデルを「トレーニング」しました。そのモデルは、いわばAIの「脳」のようなものです。しかし、脳だけでは何もできません。目や耳といった入力装置と、手や足といった出力装置があって初めて、世界と対話することができます。

この章では、前の章で作成したAIモデル(keras_model.h5)に、Pythonというプログラミング言語を使って「目」と「声」を与えます。具体的には、PCのWebカメラを「目」として使い、AIが認識した結果を画面に表示する「声」として出力する、リアルタイムじゃんけん認識アプリケーションを開発します。


1. 演習の概要とゴール設定

本演習で作成するもの

Pythonを使い、Webカメラの映像をリアルタイムでAIモデルに読み込ませ、それが「グー」「チョキ」「パー」のどれであるかを画面に表示するデスクトップアプリケーション。

本演習のゴール

  • Pythonの開発環境を準備し、必要なライブラリをインストールできる。
  • Teachable Machineで作成したAIモデルをPythonプログラムに読み込む方法を理解する。
  • OpenCVを使い、PCのカメラ映像をプログラムで扱う方法を学ぶ。
  • AIモデルの推論(Prediction)を実行し、その結果を画面に表示する一連のコードを実装できる。

2. STEP 1:開発環境のセットアップ

まず、アプリケーションを開発するための準備を整えます。

① プロジェクトフォルダの作成

PCの分かりやすい場所に、janken-appという名前で新しいフォルダを作成してください。(デスクトップなどの日本語のフォルダに入れると上手くいかないことがあります)

② モデルファイルの配置

前の章でエクスポートして解凍した2つのファイル、

  • keras_model.h5
  • labels.txt

を、先ほど作成したjanken-appフォルダの中に移動してください。

③ Pythonのインストール

もしお使いのPCにPythonがインストールされていない場合は、公式サイトから最新版をインストールしてください。

  • Python公式サイト:https://www.python.org/
    • インストール時に「Add Python to PATH」のチェックボックスを必ずオンにしてください。

④ 必要なライブラリのインストール

次に、AIモデルの実行やカメラの操作に必要となる専門的な機能(ライブラリ)をインストールします。

コマンドプロンプト(Windows)またはターミナル(Mac)を起動し、以下のコマンドを1行ずつ実行してください。

pip install tensorflow==2.15.0 h5py==3.11.0
pip install opencv-python
pip install numpy
  • TensorFlow: AI・機械学習モデルを動かすための最も代表的なライブラリ。AIの「脳」を動かす心臓部です。
  • OpenCV (cv2): カメラの映像を取得したり、画像に文字を書き込んだりするためのライブラリ。AIの「目」の役割を担います。
  • NumPy: 画像データなどを効率的に計算するためのライブラリ。プログラムの縁の下の力持ちです。

3. STEP 2:アプリケーションの実装

いよいよプログラミングです。janken-appフォルダの中に、janken_app.pyという名前で新しいファイルを作成し、お好きなテキストエディタで開いて以下のコードを記述していきましょう。

コード全体を一度に書くのではなく、部品ごとに分けて解説します。

① ライブラリの読み込みとモデルの準備

まず、先ほどインストールしたライブラリを使えるように宣言し、AIモデルとラベルファイルをプログラムに読み込みます。

import cv2
import numpy as np
from tensorflow.keras.models import load_model

# 事前に学習済みのKerasモデルをファイルから読み込む
# 'keras_model.h5' は学習済みモデルの重みや構造が保存されているファイル
# compile=False を指定すると、学習時に使ったオプティマイザなどの情報を復元しない
# → 推論だけ行いたい場合に使う設定(余計な復元処理を省略)
model = load_model('keras_model.h5', compile=False)


# 'labels.txt' ファイルを読み込み、クラス名のリストを作成する
# ファイルは UTF-8 エンコードで開く
with open('labels.txt', 'r', encoding='utf-8') as f:
    # 各行を処理して、クラス番号とクラス名が含まれるテキストを分割するリスト内包表記
    # 例: "0 cat" → split(' ', 1) により ["0", "cat"] に分かれる
    # line.strip() で前後の改行や空白を除去
    # [1] を取ることで、番号ではなくクラス名部分だけを取得
    # その結果、class_names は ["cat", "dog", "bird", ...] のようなリストになる
    class_names = [line.strip().split(' ', 1)[1] for line in f]

  • 解説:
    • load_model() でAIの脳である keras_model.h5 を読み込んでいます。
    • labels.txt を開き、1行ずつ読み込んで class_names というリスト(配列)に格納しています。['グー', 'チョキ', 'パー'] のようなデータになります。

② Webカメラの起動

次に、PCのWebカメラを起動し、映像をキャプチャーする準備をします。

# Webカメラを起動
cap = cv2.VideoCapture(0)

  • 解説: cv2.VideoCapture(0) は、PCに接続されたメインのカメラ(0番目)を起動するという命令です。

③ メインループ:映像の処理とAIによる推論

ここがアプリケーションの心臓部です。カメラがオンになっている間、ずっと繰り返される処理(ループ)を記述します。

while True:
    # カメラから1フレーム(1枚の画像)を取得する
    # ret: 正しく読み込めたかどうかのフラグ(True/False)
    # frame: 実際のフレーム画像(numpy配列形式)
    ret, frame = cap.read()

    # フレームが取得できなかった場合(カメラ切断など)はループを終了
    if not ret:
        break

    # 画像をAIモデルが学習した入力サイズにリサイズ(例: 224x224ピクセル)
    # OpenCVのcv2.resizeは (幅, 高さ) の順で指定する
    resized_frame = cv2.resize(frame, (224, 224))

    # 画像をAIモデルに入力しやすい形式に正規化
    # - 画素値は通常 [0, 255] の整数なので、float32に変換
    # - [0, 255] → [0.0, 2.0] → [-1.0, 1.0] の範囲にスケーリング
    #   (多くのAIモデルは学習時にこのスケーリングをしているため揃える必要がある)
    normalized_frame = (resized_frame.astype(np.float32) / 127.5) - 1

    # モデルに入力できるように次元を追加
    # 通常 (高さ, 幅, チャネル) の画像を (バッチ数, 高さ, 幅, チャネル) に変換する
    # ここでは1枚の画像なのでバッチ数=1
    input_data = np.expand_dims(normalized_frame, axis=0)

    # AIモデルで推論(分類)を実行
    # prediction: 各クラスに対する予測確率(例: [0.1, 0.7, 0.2])
    prediction = model.predict(input_data)

    # 最も確率の高いクラスのインデックスを取得
    index = np.argmax(prediction)

    # インデックスからクラス名を取得(例: ["グー","チョキ","パー"] の中から選択)
    class_name = class_names[index]

    # 予測確率を取り出す(最も高いクラスの確信度)
    confidence_score = prediction[0][index]

    # 表示用のテキストを作成(例: "PREDICT: グー (85.32%)")
    # :.2% は小数点以下2桁のパーセンテージ表示
    text = f"PREDICT: {class_name} ({confidence_score:.2%})"

    # フレーム画像にテキストを描画
    # (10, 30): テキストを描画する左下座標
    # cv2.FONT_HERSHEY_SIMPLEX: フォントの種類
    # 1: フォントサイズ
    # (0, 255, 0): 緑色 (BGR形式)
    # 2: 線の太さ
    # cv2.LINE_AA: アンチエイリアスを効かせた滑らかな文字
    cv2.putText(frame, text, (10, 30), cv2.FONT_HERSHEY_SIMPLEX,
                1, (0, 255, 0), 2, cv2.LINE_AA)

    # 処理後のフレームをウィンドウに表示
    cv2.imshow('Janken Recognition', frame)

    # 1ミリ秒待機し、'q'キーが押されたか確認
    # ord('q') は 'q' の文字コード
    # 押されていればループを終了
    if cv2.waitKey(1) & 0xFF == ord('q'):
        break

  • 解説:
    • cap.read(): カメラから現在の映像を1枚の画像として取得します。
    • cv2.resize(): Teachable Machineが224x224ピクセルの画像で学習したので、カメラの映像も同じサイズに変換します。
    • 正規化: 画像のピクセル値を-1から1の範囲に変換し、AIが理解しやすい形式に整えています。
    • model.predict(): 整えられた画像データをAIモデルに入力し、予測結果を受け取ります。これが推論です。
    • np.argmax(): 予測結果(各クラスの確率)の中から、最も確率が高いものの番号を取得します。
    • cv2.putText(): 取得したクラス名と確率を、元のカメラ映像に緑色の文字で書き込んでいます。
    • cv2.imshow(): 文字が書き込まれた映像を「Janken Recognition」という名前のウィンドウに表示します。
    • cv2.waitKey(): 'q'キーが押されるのを待ち、押されたらループを終了します。

④ 後片付け

ループを抜けたら、カメラを解放し、開いたウィンドウをすべて閉じる処理を書きます。

# --- ループ終了後の後片付け処理 ---

# カメラデバイスを解放
# これを呼ばないとカメラが占有され続け、他のプログラムから使えなくなることがある
cap.release()

# OpenCVで作成した全てのウィンドウを閉じる
# imshow で開いたウィンドウが残らないようにする
cv2.destroyAllWindows()

4. STEP 3:アプリケーションの実行とテスト

全てのコードを janken_app.py ファイルに保存したら、いよいよ実行です。

① 実行

コマンドプロンプトまたはターミナルで、janken-appフォルダに移動(cdコマンド)し、以下のコマンドを実行してください。

python janken_app.py

② テスト

コマンドを実行すると、Webカメラの映像が映ったウィンドウが立ち上がります。

カメラに向かって「グー」「チョキ」「パー」の手を出してみてください。画面の左上に、AIの予測結果がリアルタイムで表示されるはずです!

アプリケーションを終了するには、ウィンドウを選択した状態でキーボードの「q」キーを押してください。

おめでとうございます!

あなたは今、自分で学習させたAIモデルを組み込んだ、本格的な画像認識アプリケーションをゼロから作り上げました。これは、AI開発者としての大きな一歩です!


次の最終章では、この研修全体の振り返りと、さらにAIの世界を探求するための次のステップについて解説します。


第4章:まとめと今後のステップ

1. 研修の振り返り

皆さん、研修お疲れ様でした!

まずは、この研修の全カリキュラムを完走したご自身に大きな拍手を送りましょう。🎉

この研修を通じて、皆さんはAI開発の最初から最後まで、一連の流れをご自身の手で体験してきました。

  • 第1章では、AIと機械学習の基本的な関係性を学び、「難しそう」という漠然としたイメージを具体的な知識へと変えました。
  • 第2章では、ノーコードツール「Teachable Machine」を使い、プログラミングを一切せずに、マウス操作だけでオリジナルの「じゃんけん認識AI」を開発しました。AIにとって良質なデータがいかに重要かも体感できたはずです。
  • 第3章では、自分で作ったAIモデルをPythonで動かし、Webカメラと連携した本格的なアプリケーションを完成させました。AIが単なる理論ではなく、現実世界で動く「ツール」であることを実感していただけたかと思います。

皆さんはもはや、「AIが何をしてくれるのかをただ待つ人」ではありません。「AIに何をさせたいかを考え、それを形にするための第一歩を踏み出した開発者」です。この経験は、今後のキャリアや学習において、必ず大きな自信となるでしょう。


2. さらに学ぶために

AIの世界は非常に奥深く、そして日進月歩で進化しています。もし、この研修でAI開発の面白さに目覚め、「もっと知りたい!」と感じたなら、次に進むべき道はたくさんあります。

① 新しいAIモデル作りに挑戦してみる

まずは、今回学んだスキルを使って、身の回りのものをテーマに自分だけのAIモデルを作ってみましょう。Teachable Machineは、じゃんけん以外にも様々な可能性を秘めています。

  • プロジェクト例:
    • ゴミの分別AI:ペットボトル、缶、紙くずを認識させる。
    • マスク着用判定AI:マスクをしている顔と、していない顔を見分ける。
    • お片付けアシスタントAI:特定のおもちゃや本が、あるべき場所に置かれているか判定する。
    • 音声認識:Teachable Machineは画像だけでなく、「OK」「NG」といった短い単語を認識する音声モデルも作れます。

身近な課題をテーマにすることで、楽しみながらさらに学びを深めることができます。

② Pythonと専門ライブラリを深掘りする

今回、Pythonのコードに触れてみて、プログラミングの面白さを感じた方もいるでしょう。AI開発の現場では、Pythonが最も広く使われています。以下のライブラリは、AI開発者にとっての「三種の神器」とも言える重要なツールです。

  • Pandas: Excelのようにデータを表形式で扱い、整理・分析するためのライブラリ。
  • Matplotlib / Seaborn: データをグラフや図で可視化するためのライブラリ。
  • TensorFlow / PyTorch: より複雑で高精度なAIモデルを、コードを書いてゼロから構築するための専門的なフレームワーク。

これらの学習を進めることで、作れるAIの幅が格段に広がります。

③ より高度なAI開発プラットフォームに触れる

Teachable Machineは「入門」に最適なツールでしたが、実際のビジネスの現場では、より大規模で高機能なクラウドプラットフォームが使われています。

  • Google Cloud Vertex AI
  • Microsoft Azure Machine Learning

これらのプラットフォームは、より大量のデータで、より高精度なモデルを、チームで協力しながら開発するための機能が揃っています。今回の研修で得た知識は、これらの高度なツールを理解するための確かな土台となります。


3. 最後に

AI技術は、特別な専門家だけのものではありません。アイデアと「作ってみたい」という好奇心があれば、誰でもその第一歩を踏み出すことができます。

この研修が、皆さんにとってAIというパワフルなツールを使いこなすための、楽しく、そして有意義なスタート地点となったことを心から願っています。ここで得た知識と成功体験を武器に、ぜひ次の挑戦へと進んでいってください。

これで、本研修の全プログラムを終了します。最後までご参加いただき、本当にありがとうございました!


セイ・コンサルティング・グループの新人エンジニア研修のメニューへのリンク

投稿者プロフィール

山崎講師
山崎講師代表取締役
セイ・コンサルティング・グループ株式会社代表取締役。
岐阜県出身。
2000年創業、2004年会社設立。
IT企業向け人材育成研修歴業界歴20年以上。
すべての無駄を省いた費用対効果の高い「筋肉質」な研修を提供します!
この記事に間違い等ありましたらぜひお知らせください。