BUSINESS

データ分析基盤はなぜ必要なのか?構築時のポイントや導入事例を解説

データ分析基盤はなぜ必要なのか?構築時のポイントや導入事例を解説

企業に蓄積される膨大なデータを、ビジネスの成長に活かしきれていますか?「データが部署ごとに分断されサイロ化している」「レポート作成に時間がかかる」といった課題は、データに基づいた迅速な意思決定、すなわちデータドリブン経営を実現する上で大きな障壁となります。これらの課題を解決し、競争優位性を確立するために不可欠な経営インフラが「データ分析基盤」です。本記事では、データ分析基盤の基本的な定義から、なぜ今必要なのかという5つのメリット、DWH(Data Warehouse)やBI(Business Intellegence)ツールといった構成要素、そして具体的な構築手順までを網羅的に解説します。さらに、導入を成功させる3つのポイントや、デジタル庁、スノーピークなどの先進的な導入事例も紹介。この記事を最後まで読めば、データ分析基盤の全体像を体系的に理解し、自社での導入を成功に導くための具体的なアクションプランを描けるようになります。

▼更にDXについて詳しく知るには?
DXとはどのようなもの?導入が求められる理由やメリット・デメリットを解説

▼社内のデータをAI化するには?
ノーコードAIツールUMWELT紹介ページ(活用事例あり)

1. データ分析基盤とは?ビジネスを加速させるデータの土台

データ分析基盤とは、企業が保有する様々なデータを収集・蓄積・加工し、分析に活用できる形に整えるためのシステムや仕組みの総称です。 現代のビジネス環境は変化のスピードが速く、企業が競争優位性を確立するためには、勘や経験だけに頼るのではなく、データに基づいた客観的な意思決定が不可欠です。 データ分析基盤は、まさにそのデータ活用の成否を左右する重要な土台(経営インフラ)と言えるでしょう。 DX(デジタルトランスフォーメーション)を推進する上でも、その中核を担う存在です。

1.1 データ分析基盤がないとどうなる?よくある課題

もし、データ分析基盤が整備されていなければ、データ活用において多くの企業が以下のような課題に直面します。これらの課題は、迅速な意思決定を妨げ、ビジネスの成長機会を損失させる原因となり得ます。

課題の種類 具体的な問題点
データのサイロ化 各部署やシステムにデータが点在し、統合されていないため、全社横断的な分析が困難になります。 最新のデータがどこにあるか分からず、探す手間と時間もかかります。
データ品質の低下 「表記ゆれ」やデータの重複、欠損など、品質の低いデータが混在し、分析結果の信頼性が損なわれます。 正確な意思決定のためには、データの精度や一貫性が不可欠です。
分析の属人化 特定のスキルを持つ担当者しかデータを扱えず、その人がいないと分析業務が滞ってしまいます。 組織としてのデータ活用能力が向上しません。
時間と手間の増大 データの収集、整形、加工に多くの手作業が発生し、レポート作成までに膨大な時間がかかります。市場の変化に対応した迅速なアクションが取れません。
セキュリティとガバナンスのリスク データへのアクセス管理が不十分なため、情報漏洩のリスクが高まります。また、誰がどのようにデータを利用しているのかを把握することも困難です。

1.2 データドリブン経営に不可欠な理由

データドリブン経営とは、収集したデータを分析し、その結果に基づいて事業戦略や方針の決定を行う経営手法です。 従来の経験や勘に頼った経営から脱却し、客観的な根拠を持って意思決定のスピードと質を高めることを目的とします。

データ分析基盤は、このデータドリブン経営を実現するために不可欠な存在です。その理由は、信頼できる唯一のデータソース(Single Source of Truth)を提供できる点にあります。全社で統一され、品質が担保されたデータを利用することで、部門間の認識のズレを防ぎ、誰もが同じ事実に基づいて議論を進められます。これにより、迅速かつ的確な意思決定が可能になるのです。

さらに、データ分析基盤を整備することで、専門家でなくてもBIツールなどを通じてデータにアクセスし、分析できる環境が整います。これは「データ活用の民主化」と呼ばれ、組織全体のデータリテラシー向上と、現場レベルでのデータに基づいた改善活動を促進します。

2. データ分析基盤を構成する4つの基本機能

データ分析基盤は、企業内外に散在する膨大なデータをビジネスに活用できる資産へと変えるためのシステムです。この基盤は、単一のツールではなく、「収集」「蓄積」「加工」「可視化・分析」という4つの基本機能を持つソリューションの集合体です。これらの機能が連携し、一連のプロセスを実行することで、データに基づいた的確な意思決定を可能にします。

2.1 データ収集:あらゆるデータを集める

データ分析の最初のステップは、分析対象となるデータを集める「データ収集」です。社内の基幹システム(ERP/Enterprise Resource Planning)や顧客管理システム(CRM/Customer Relationship Management)、販売管理システムの顧客データや購買データといった構造化データはもちろん、Webサイトのアクセスログ、IoT機器から送られるセンサーデータ、画像や音声、SNSの投稿といった非構造化データまで、分析に必要なあらゆるデータを多様なデータソースから集めます。この段階でどれだけ幅広く、質の高いデータを集められるかが、後の分析結果の価値を大きく左右します。

2.2 データ蓄積:データを安全に保管する (DWH/データレイク)

収集したデータは、目的に応じて適切な場所に「蓄積」されます。データ分析基盤における主要な蓄積先として「データレイク」と「データウェアハウス(DWH/Data Warehouse)」があります。それぞれの役割は異なり、両者を組み合わせることで効果的なデータ管理が実現します。

種類 主な役割 扱うデータ 特徴
データレイク 収集したデータを加工せず、そのままの形式で大量に保存する「データの湖」 構造化、半構造化、非構造化データなど形式を問わない生データ(ローデータ) 将来の多様な分析ニーズに対応できる柔軟性を持つ。比較的安価なクラウドストレージなどが利用される。
データウェアハウス (DWH) 分析しやすいように整理・加工されたデータを時系列で保管する「データの倉庫」 分析目的に合わせて加工・統合された構造化データ 高速な集計や分析処理に特化している。データの品質と一貫性が保たれる。

さらに、DWHの中から特定の部門や目的に特化したデータだけを抽出した「データマート」を作成することもあります。これにより、例えば営業部門やマーケティング部門の担当者は、自分たちに必要なデータセットに素早くアクセスし、分析を行うことができます。

2.3 データ加工:分析しやすい形に整える (ETL/ELT)

データレイクに蓄積された生データは、そのままでは分析に適さないことがほとんどです。そこで、データを分析しやすい形式に「加工」する処理が必要になります。表記の揺れを統一したり、欠損しているデータを補完したりする「データクレンジング」や、異なるデータソースの情報を統合する処理などが行われます。このデータ加工のプロセスには、主に「ETL」と「ELT」という2つの手法があります。

  • ETL (Extract, Transform, Load): データソースからデータを「抽出し(Extract)」、専用のサーバーで分析しやすい形に「変換・加工し(Transform)」、DWHに「書き込む(Load)」という伝統的な手法です。
  • ELT (Extract, Load, Transform): まずデータを「抽出し(Extract)」、先にDWHやデータレイクに「書き込み(Load)」、その後DWHの潤沢な処理能力を使って「変換・加工する(Transform)」手法です。 クラウドDWHの高性能化に伴い、近年注目されています。

これらの処理を通じて、データの品質を高め、分析に適したクリーンな状態に整えます。

2.4 データ可視化・分析:インサイトを発見する (BIツール)

加工・整理されたデータは、最終的に「可視化・分析」され、ビジネス上の意思決定に役立つ知見(インサイト)を引き出すために活用されます。 この段階で中心的な役割を果たすのが「BI(Business Intelligence)ツール」です。 BIツールは、数値の羅列であるデータをグラフやチャート、地図などを用いて直感的に理解できるダッシュボードとして可視化します。 これにより、専門的な知識がないビジネスユーザーでも、KPI(Key performance Indicator)の進捗確認や売上の動向分析、異常値の早期発見などが容易になります。 迅速な状況把握とデータに基づいた客観的な意思決定を組織全体で推進するために、この機能は不可欠です。

3. なぜ今データ分析基盤が必要なのか?導入による5つのメリット

テクノロジーの進化に伴い市場の変化は加速し、企業が競争優位性を確立するためにはデータ活用が不可欠です。しかし、増え続ける膨大なデータをExcelなどで手作業で分析するには限界があります。データ分析基盤は、こうした課題を解決し、データドリブン経営を実現するための重要な経営インフラと言えます。ここでは、データ分析基盤を導入することでもたらされる5つの具体的なメリットを解説します。

3.1 迅速な意思決定をサポート

データ分析基盤を導入する最大のメリットは、迅速かつ精度の高い意思決定が可能になることです。 従来、データ分析には複雑な集計や手作業でのグラフ作成など多くの手間と時間がかかっていました。 データ分析基盤があれば、リアルタイムに近いデータに基づいて現状を即座に把握し、市場の変化やビジネスチャンスに素早く対応できます。 経験や勘だけに頼るのではなく、客観的なデータに基づいた判断を下すことで、戦略の精度を高め、ビジネスの成功確率を向上させることができます。

3.2 データのサイロ化を解消し一元管理を実現

多くの企業では、部署やシステムごとにデータが個別に管理され、組織全体で情報を横断的に活用できないデータのサイロ化が課題となっています。 サイロ化は、データ活用の非効率化や部門間の連携不足を招き、全社的な視点での意思決定を困難にします。 データ分析基盤は、社内に散在するこれらのデータを一元的に集約・統合する役割を担います。 これにより、部門の壁を越えたデータ活用が可能になり、組織全体の状況を可視化できるようになります。

課題 具体例
意思決定の遅延 分析に必要なデータを各部署に依頼して収集・統合する必要があり、判断までに時間がかかる。
データの不整合・重複 同じ顧客情報が各部署で異なって登録されており、どのデータが正しいか不明瞭になる。
業務の非効率化とコスト増 部署ごとに同様のデータを収集・管理するため、ストレージコストや管理工数が重複して発生する。
全社的な視点の欠如 自部署のデータしか見えないため、会社全体として最適な戦略を立てることが難しい。

3.3 データ品質の向上とガバナンス強化

データ分析の質は、元となるデータの品質に大きく左右されます。データ分析基盤を導入し、データを一元管理することで、データの品質を高める取り組みが可能になります。 例えば、入力ミスや表記の揺れ(「株式会社〇〇」と「(株)〇〇」など)をルールに基づいて自動的に修正・統一したり、重複データを排除したりすることで、分析の精度を高めることができます。 さらに、誰がどのデータにアクセスできるかを制御するデータガバナンスを効かせることで、セキュリティを確保し、コンプライアンスを遵守した安全なデータ活用が実現します。

3.4 属人化を防ぎデータ活用の民主化を促進

従来、データ分析は専門的な知識を持つ一部の担当者に依存しがちで、業務の属人化が課題でした。 データ分析基盤を構築し、BIツールなどを組み合わせることで、専門家でなくても直感的な操作でデータ分析を行える環境が整います。 これにより、現場の担当者自身が必要なデータを自ら抽出し、日々の業務改善や新たな施策の立案に活かす「データ活用の民主化」が促進されます。 組織全体でデータを活用する文化が醸成され、イノベーションが生まれやすい土壌が育まれます。

3.5 レポート作成などの業務を自動化し生産性向上

多くの企業では、日次や週次、月次の定型レポート作成に多くの時間を費やしています。データ分析基盤は、データの収集から加工、集計までの一連のプロセスを自動化できます。 BIツールと連携すれば、最新のデータが反映されたダッシュボードやレポートを自動で生成・更新することも可能です。 これにより、担当者は単純な集計作業から解放され、分析結果からインサイトを読み解き、次のアクションを考えるといった、より付加価値の高いコア業務に集中できるようになり、組織全体の生産性向上に大きく貢献します。

4. データ分析基盤の構築手順5ステップ

データ分析基盤の構築は、企業のデータ活用を成功させるための重要なプロジェクトです。やみくもに進めるのではなく、計画的にステップを踏むことで、ビジネス価値を最大化する基盤を構築できます。ここでは、データ分析基盤を構築するための代表的な5つのステップを具体的に解説します。

4.1 ステップ1:目的とKPIの明確化

最初のステップは、データ分析基盤を導入する目的を明確にすることです。 「売上を向上させたい」「業務を効率化したい」「顧客満足度を高めたい」といったビジネス上の課題と結びつけ、具体的なゴールを設定します。 目的が曖昧なままでは、必要なデータや機能が定まらず、使われない基盤になってしまう可能性があります。 加えて、目的の達成度を測るための重要業績評価指標(KPI)を設定することも重要です。 例えば、「Webサイト経由の売上を10%向上させる」「問い合わせ対応時間を20%削減する」など、数値で測定できる具体的なKPIを定めることで、後の効果測定が容易になります。

4.2 ステップ2:要件定義と全体設計

目的とKPIが明確になったら、それを実現するための要件を定義し、基盤全体の設計図を描きます。 このステップでは、以下の点を具体的に定義します。

  • データ要件: どのデータを、どこから収集し、どの程度の頻度で更新するのか。
  • 機能要件: データの加工、分析、可視化のためにどのような機能が必要か。
  • 非機能要件: パフォーマンス(処理速度)、セキュリティ、可用性(安定稼働)など、品質に関する要件。

これらの要件に基づき、データの収集から蓄積、加工、そして分析・可視化に至るまでの一連のデータフローを設計します。 誰が、いつ、どのようにデータを利用するのかというユースケースを洗い出すことで、利用者にとって価値のある設計が可能になります。

4.3 ステップ3:ツール・サービスの選定

全体設計が固まったら、各機能を実現するための具体的なツールやサービスを選定します。 データ分析基盤は、複数のツールを組み合わせて構築されるのが一般的です。 選定にあたっては、コスト、機能、操作性、拡張性、既存システムとの連携性、サポート体制などを総合的に比較検討する必要があります。 主な機能と代表的なツールの例は以下の通りです。

機能 代表的なツール・サービス 概要
データ収集・加工 (ETL/ELT) trocco、DataSpider、Azure Data Factory 社内外の様々なシステムからデータを抽出し、DWHにロードするための変換・加工を行う。
データ蓄積 (DWH/データレイク) Google BigQuery、Snowflake、Amazon Redshift 大量のデータを整理・統合し、高速な分析を可能にする形で保管する。
データ可視化・分析 (BI) Tableau、Looker Studio、Microsoft Power BI DWHに蓄積されたデータをグラフやダッシュボードで可視化し、インサイトを得る。

4.4 ステップ4:環境構築と実装

選定したツールやサービスを用いて、実際にデータ分析基盤の環境を構築し、設計通りに実装していくフェーズです。近年では、初期投資を抑えられ、データ量の増減に柔軟に対応できるクラウドサービス(AWS、Google Cloud、Microsoft Azureなど)を利用して構築するのが主流です。 具体的な作業としては、クラウド環境の設定、DWHの構築、ETL/ELTツールによるデータパイプラインの実装、BIツールとの連携設定などが含まれます。この段階では、設計書に基づいて正確に構築することが求められます。

4.5 ステップ5:運用と改善

データ分析基盤は、構築して終わりではありません。 ビジネスの成長や変化に対応し続けるためには、継続的な運用と改善が不可欠です。 運用フェーズでは、システムが安定して稼働するように監視し、障害発生時には迅速に対応します。また、データの品質を維持するための管理も重要です。改善フェーズでは、利用者からのフィードバックを収集したり、利用状況をモニタリングしたりして、新たなニーズに対応するための機能追加やパフォーマンスチューニングを行います。定期的にKPIの達成度を評価し、PDCAサイクルを回していくことで、データ分析基盤の価値をさらに高めていくことができます。

5. データ分析基盤構築を成功させる3つのポイント

データ分析基盤は、ただ構築すれば成果が出るというものではありません。収集するデータやシステムの設計、そして組織の文化が噛み合わなければ、無駄なコストと時間がかかるだけでなく、精度の低い分析結果しか得られない可能性があります。ここでは、データ分析基盤の構築を成功に導くための重要な3つのポイントを解説します。

5.1 スモールスタートで小さく始めて大きく育てる

最初から全社規模の完璧なデータ分析基盤を目指すと、要件が複雑化し、開発期間やコストが膨大になりがちです。そこで重要なのが「スモールスタート」というアプローチです。 まずは特定の部門や、解決したい具体的なビジネス課題(例:営業部門の売上予測精度向上、マーケティング部門の顧客分析など)にスコープを絞り、小規模な基盤を構築します。 この方法は、データ活用のイメージや課題を明確化する上でも有効です。

このアプローチにより、早期に成果を出し、投資対効果(ROI)を実証しやすくなります。そして、得られた知見や現場からのフィードバックを元に、段階的に機能拡張や対象範囲の拡大を進めるアジャイルな開発手法が適しています。これにより、手戻りを最小限に抑えながら、ビジネス価値の高いデータ分析基盤を「大きく育てる」ことが可能になります。

5.2 将来の拡張性を見据えた設計を心掛ける

IoTデバイスの普及やAI技術の進化により、企業が扱うデータ量は爆発的に増加しています。 データ分析基盤を構築する際は、現在の要件を満たすだけでなく、将来のデータ量増加や新たな分析ニーズに対応できる「拡張性(スケーラビリティ)」を確保することが極めて重要です。

具体的な設計ポイントとしては、必要に応じてリソースを柔軟に追加・変更できるクラウドサービスの活用が有効な選択肢となります。 また、各機能(データ収集、蓄積、加工など)を独立させて連携させる「疎結合アーキテクチャ」を採用することで、一部の機能だけを最新の技術に入れ替えるといった柔軟な対応も可能になり、パフォーマンスの維持にも繋がります。

5.3 活用を推進する体制を整える

高性能なデータ分析基盤を構築しても、それを使う文化や体制がなければ「宝の持ち腐れ」となってしまいます。 「作って終わり」にせず、全社的にデータ活用を浸透させるための推進体制を構築することが成功のカギを握ります。 経営層から現場まで、関係者間で目的意識を共有し、合意形成を図ることが重要です。

データの品質やセキュリティを管理し、利用ルールを定める「データガバナンス」の確立も不可欠です。 これにより、安全かつ統制の取れた形で、専門家でなくてもデータにアクセスし活用できる「データ活用の民主化」を促進できます。 推進体制における主な役割と責務は以下の通りです。

役割 主な責務
データスチュワード 担当するデータの品質維持、定義の明確化、利用ルールの策定・管理を行います。 現場とIT部門の橋渡し役も担います。
データアナリスト/サイエンティスト データ分析の実行、ビジネス課題解決のためのインサイト抽出、予測モデルの構築などを担当します。
データエンジニア データ分析基盤の設計、構築、運用、パフォーマンスの維持・向上を担います。
ビジネスユーザー BIツールなどを活用して日常業務でデータを活用し、現場視点でのフィードバックを提供します。

これらの役割を担う人材の育成や、全社員のデータリテラシー向上のための研修プログラムを並行して進めることで、データ分析基盤は真の価値を発揮するでしょう。

6. 業界別に見るデータ分析基盤の導入事例

企業が抱える多様な課題を解決し、データドリブンな経営を実現するために、データ分析基盤の導入がさまざまな業界で進んでいます。ここでは、行政、製造業、製薬という異なる分野から、データ分析基盤の具体的な導入事例を紹介し、それぞれの導入背景、課題、そして得られた成果について解説します。

6.1 【行政】デジタル庁の事例

6.1.1 データガバナンスの確立とエビデンスに基づく政策立案の迅速化

日本の行政DXを牽引するデジタル庁は、政府内に散在するデータを収集・分析し、エビデンスに基づく政策立案(EBPM)を推進するため、独自のデータ分析基盤「sukuna」を内製で構築・運用しています。 従来、大規模で複雑なプロジェクトにおけるデータ共有の遅延や、国民・自治体への説明責任を果たすためのデータ可視化が大きな課題でした。

「sukuna」はフルクラウド環境で構築されており、これにより少人数での迅速な開発と柔軟な運用が可能になっています。 導入後、オンプレミス環境では数時間かかっていたデータの集計が数秒で完了するようになり、政策データダッシュボードの公開などを通じて、国民への透明性向上にも貢献しています。

導入前の課題 導入内容 導入後の成果
・大規模プロジェクトにおけるスムーズなデータ共有
・政策の進捗状況や効果を可視化する必要性
・データ集計や分析にかかる時間と手間
・独自のデータ分析基盤「sukuna」を内製で構築
・Google Cloud (BigQuery) などを活用したフルクラウド環境
・数時間かかっていたデータ集計が数秒に短縮
・政策データダッシュボードの公開による透明性の向上
・ローデータを多角的に分析し、新たなインサイトを発見

6.2 【製造業】株式会社スノーピークの事例

6.2.1 需要予測と迅速な経営判断の実現による事業成長

アウトドア用品メーカーの株式会社スノーピークは、事業の成長に伴い増大する分析ニーズへの対応に課題を抱えていました。特に、手作業での分析帳票の作成に多くの時間とコストを要しており、経営判断の迅速化が求められていました。 そこで同社は、社内に散在する販売データや顧客データなどを一元的に管理・分析するためのデータ分析基盤を構築しました。

基盤構築には、AWSなどのクラウドサービスやデータ連携ツール「DataSpider Servista」などを活用し、オンプレミスとクラウドのハイブリッド環境にあるデータをスムーズに統合しています。 これにより、これまで数日かかっていた分析資料をタイムリーに提供できるようになり、月間90時間以上もの工数削減を実現しました。これによりデータに基づいた迅速な計画修正や施策立案が可能となり、事業の成長を力強く支えています。

導入前の課題 導入内容 導入後の成果
・分析帳票の作成にかかる時間とコストの増大
・多様化する分析ニーズへの迅速な対応
・散在するデータの統合と活用
・AWS、Azureなどを活用したデータプラットフォーム「Datadam」の構築
・データ連携ツール「DataSpider Servista」の導入
・月間90時間以上のレポーティング業務工数を削減
・ニーズに応じた分析帳票の迅速な開発が可能に
・データに基づいたスピーディーな意思決定を実現

6.3 【製薬】モデルナ・ジャパン株式会社の事例

6.3.1 創薬プロセスの抜本的な高速化と個別化医療への貢献

新型コロナウイルスワクチンの開発で世界的に知られるモデルナは、創業当初からデジタル技術の活用を前提とした「デジタルバイオテクノロジー企業」です。同社の強みは、mRNAをプラットフォームとして捉え、創薬プロセス全体をデジタル化・自動化したことにあります。 このプラットフォーム戦略を支えているのが、AWSに代表されるクラウドベースの強力なデータ分析基盤です。

膨大なゲノム情報の解析、臨床試験データのリアルタイム分析、製造プロセスの最適化など、創薬のあらゆる段階でデータとAIが活用されています。 これにより、通常10年以上かかるとされるワクチン開発を1年未満という驚異的なスピードで達成しました。 この事例は、データ分析基盤が単なる業務効率化に留まらず、ビジネスモデルそのものを変革し、人々の生命に貢献しうる強力なエンジンとなることを示しています。

導入前の課題 導入内容 導入後の成果
・従来の創薬における長い開発期間と莫大なコスト
・膨大な研究開発データや臨床試験データの効率的な解析
・AWSの各種サービスを活用したデータ分析基盤の構築
・研究開発から製造まで、全社的なデジタルプラットフォーム化
・ワクチン候補設計から臨床試験準備までを42日間で完了
・新薬開発のサイクルを劇的に短縮し、コストを削減
・mRNAプラットフォームによる将来の医薬品開発への拡張性確保

7. まとめ

本記事では、データ分析基盤の基本的な概念から、その必要性、構成要素、構築ステップ、そして成功のポイントまでを網羅的に解説しました。データ分析基盤とは、単なるITシステムではなく、企業内に散在するデータを一元的に集約・管理し、ビジネス価値へと転換するための戦略的な土台です。

データ分析基盤を構築する最大の理由は、勘や経験だけに頼る属人的な意思決定から脱却し、データに基づいた迅速かつ客観的な意思決定、すなわち「データドリブン経営」を実現することにあります。これにより、データのサイロ化を解消し、データ品質の向上、業務効率化、そして全社的なデータ活用の民主化を促進することが可能になります。

成功のためには、導入目的を明確にし、スモールスタートで小さく始めて大きく育てる視点が不可欠です。本記事でご紹介した構築のステップや成功のポイント、そして先進企業の事例を参考に、ぜひ貴社におけるデータ活用の第一歩を踏み出してください。変化の激しい現代市場において、データ分析基盤への投資は、企業の競争優位性を確立し、持続的な成長を遂げるための重要な鍵となるでしょう。

product関連するプロダクト

  • UMWELTウムベルト

    UMWELTは、プログラミング不要でかんたんに分析や自動化ができるノーコードツールです。需要予測から生産計画を最適化、人材の最適配置まで課題を解決できます。日々変化する生産数や生産計画、人員配置を自動立案し属人化や作業時間を大幅に削減します。

WRITING BY

TRYETING

公式

TRYETING公式です。
お知らせやIR情報などを発信します。