企画記事

「プルーニング」を聞いたことがない人は、AIの勉強を再開しよう!

アイキャッチ
目次

「プルーニング」を聞いたことがない人は、AIの勉強を再開しよう!

  • notaAI | チェ・ミョンス

【notaAI】「人工知能、どこまで行った?」実戦を戦う最前線のスタートアップ

変数と定数で言えば、「人工知能が巨大な産業群を作ること」は定数に近いです。変数は「じゃあ、どうやって」です。notaAIはその変数の話です。notaAIの人工知能プラットフォーム「NetsPresso(ネッツプレッソ)」。アメリカ西部開拓時代に例えれば、「ジーンズ」や「つるはし」を売ることです。

もちろん「目に見えないもの」なので説明はかなり難しいです。プロがプロに食事の席で話すような話とでもいいましょうか。そのような場に入るのも難しいだけでなく、仮に入ったとしても「国文科卒業生(=ちょい事情通の記者)」は理解が難しい話です。notaAIが10年後に「韓国の人工知能の代表的なスタートアップになるのか?」知りようはありません。

「ノータイプミスキーボード」がnotaAIの始まりだと言われています。例えば、2週間ほどスマートフォンを使うと、その中で「その人のタイプミスパターン」を学習し、次回からは自分で修正してくれるというコンセプトです。 「ノータイプミスキーボード」は失敗し、2018年会社にはチェ・ミョンス代表と共同創業者のキム・テホCTOの2人しか残っていませんでした。私たちはいったい「ノータイプミスキーボード」で何をやっていたのだろう?その答えがピボットの始まりです。

ちょい事情通の記者はボールペンを持って、notaAIチェ・ミョンス代表に「聞いて、また聞いて」を繰り返しました。人工知能の入り口で、人工知能を理解するのに、「つるはしを売る」というnotaAIは良い教材だったためです。長いインタビューです。それでも、サム・アルトマンの「学問的な人工知能論」よりはかなり現実的な話です。いつも足は地に、目は火星まで。

notaAI チェ・ミョンス代表/notaAI提供

[1] 人工知能、学習と推論の違い 

-人工知能を軽量化するというのは、notaAIですよね?

「はい。notaAIは、人工知能を世の中に普及させることに貢献する企業です。そういう風に覚えてもらいと思っている会社です。人工知能を普及させるには多くのハードルがあります。例えば、プライバシーの問題だとか、コンピューティングリソースの問題、ネットワーク通信のバンドレスやレイテンシーなどです。制約を解決する方法も様々でしょう。notaAIは人工知能モデルの軽量化または人工知能モデルの最適化という技術で問題を解決します。」

-軽量化という言葉から引っかかりますね。概念の勉強でしょうか?

「人工知能を理解する際には、学習と推論という2つの概念を分離する必要があります。人工知能モデルはあるデータを学習します。学習した後にデバイスにアップするでしょう。そのデバイスはクラウドかもしれませんし、スマートフォンかもしれません。コンピューティング能力のある機器に人工知能モデルを載せて使用します。この時「使う」というのは通常推論の話です。「軽量化」という表現は、学習ではなく、推論するときに使います。 「人工知能モデルを軽量化し、最適化させる」ということです。

「軽量化させる」というのは、その言葉の意味通りです。例えば、人工知能モデルがほとんどクラウドやサーバーを活用するのは、推論する際に高性能演算装置が必要であるためです。それだけ演算も多く必要なのです。オペレータと呼ばれる演算子もたくさん入っています。notaAIは「性能を維持しながら演算量を減らし、演算回数を減らす技術」を保有しています。場合によっては「人工知能モデルの圧縮」または「人工知能モデルの高速化」とも呼ばれます。モデルが小さくなれば、それだけ演算する速度が速くなるためです。」

-ちょっと待ってください。人工知能サービスを提供するとき、つまり「推論」するとき、演算をできるだけ少なくするということですよね?演算にかかるコンピューティング資源はすべてお金だから?

「はい。少ないコンピューティングリソースだけで、人工知能モデルを動かすことができるようにするのです。例えば、スマートフォンとサーバーはコンピューティング資源が同じではありませんよね。データセンターと自動運転車も当然違います。実は「軽量化」しなければ、ほとんどのAIモデルはクラウドを使わなければなりません。コンピュータのリソースがすごく必要なんです。

自動運転車だけでも、自律走行するには膨大なコンピューティングリソースが必要です。膨大な、というのは結局お金です。自動運転車では電力もそれだけ多く使うということです。バッテリー管理にも問題が発生します。走行距離が短くなるのです。」

[2] ケーススタディ :軽量化によるクラウドコスト削減事例、月4000ドル -> 300ドル

 -実際の例を一つ教えてください。

「notaAIのお客様の中に、クラウドを使うお客様がいます。クラウドを使うお客様が求めるものは一つです。クラウドのコストを削減すること。なぜなら、それが自分たちのサービス費用であるためです。クラウドはレンタルサービスなので、「どれだけ良いハードウェアを長く借りるか」によってコストが決まります。会社の立場では、人工知能製品をクラウドで動かす際、お金のことを考えなければ、高性能で速く動作させたければ、高性能インスタンスを使えばいいのです。その代わり、高性能インスタンスは当然高価です。

notaAIは、同じ人工知能モデルを、同じ性能を出しながらも、高性能インスタンスでなくても、つまりコンピューティングリソースがはるかに少ないインスタンスでも可能にさせます。どのように?モデルを小さくして、です。」

-実際の事例、実際にnotaAIを使うことでその「軽量化」を実現し、クラウドのコストを削減した事例をお聞きしたいです。

「CCTV映像を分析するソフトウェア会社の事例です。この会社の人工知能モデルはこのようなものです。人が何人通ったという情報や、どこかに誰かが侵入している、家の中にペットが出没しているなどの情報。非常に多様な映像をカメラベースで分析して情報を提供する会社です。従来は1つのクラウドインスタンスで4台のCCTVをカバーしていました。つまり、4台のCCTVから入ってくる映像をリアルタイムで処理するために、1つのクラウドインスタンスを使っていたのです。しかし、40台のCCTVであれば、10個のクラウドインスタンスを使わなければなりません。」

-クラウドインスタンスの費用はどのくらいかかるのですか?

「その会社の場合、従来は月に4000ドルくらい使っていました。notaAIがその会社の人工知能モデルを軽量化し、1つのクラウドインスタンスで16台のCCTVをカバーするようにしました。これで40台のCCTVをカバーするのに10個のインスタンスではなく、2個半ほどで済みます。その会社は、4000ドルではなく、300ドル程で運営が可能になります。」

-人工知能サービスを提供するのにかかるコストが10分の1になりましたね。

「はい。コストは大幅にダウンします。なぜなら、notaAIはクラウドインスタンスの数も減らしましたが、必要なクラウドインスタンスも以前より低スペックになるのです。」

[3] 人工知能モデルをクラウドを使わず、直接スマートフォンにアップロードする

-人工知能会社のための人工知能会社ですね?notaAIは原価を下げてくれていますね。顧客にCCTVの4つの分析サービスを提供する際にかかっていたコストを考えると。原価が下がった分、その企業自身もより低い金額で顧客サービスを提供することができるでしょう。もちろん、自分たちがマージンを上げて持っていくか、市場で価格を下げてマーケットシェアを増やしていくかは、その人工知能会社の判断だとは思いますが。

「そうです。それはnotaAIが関与する部分ではありません。」

-クラウドを使う人工知能企業の事例はわかりました。逆に、クラウドを使わず、軽いものをPCに搭載する場合はどうでしょうか?

「クラウドを使わざるを得ない企業もあるんです。実はほとんどがそうです。notaAIはクラウドをより低いインスタンスで使えるようにします。場合によっては、必ずしもクラウドを使う必要はありません。クラウドではなく、エッジで処理しても大丈夫です。

notaAIがクラウドではなく、低スペックのデバイスで処理させることで、コストが大幅に安くなります。例えば、クラウドはいくら安いインスタンスを使っても月に最低数百ドルはかかります。エッジデバイスで同じことを処理できるようになれば、そのデバイス1台買えば終わりです。数百ドルです。一度買ったらずっと運営できます。はるかに大きな効果です。月々の運営費は、電気代と通信料を除けばかかりません。」

-圧倒的に有利ですね。そんなに良いのに、なぜnotaAIはまだ顧客が爆発的に増えていないのですか?

「顧客企業は44社ほどあります。notaAIは複数の大企業から投資を受けました。大企業が大きなサービスをたくさんやっているのです。SAMSUNG(サムスン電子)グループでも、LGCNSも、Naver(ネイバー)やKakao(カカオ)も投資してnotaAIの技術を活用していると見てください。」

-人工知能軽量化というビジネスはどうやってお金を稼ぐのですか?毎月手数料がかかるのですか?

「2つあります。一つは、モデルを軽量化・最適化するプラットフォームビジネスです。プラットフォームビジネス(=NetsPressoを指す。後に説明)は年間ライセンスを払って使います。つまり、プラットフォームに開発者が自分のモデルをアップロードして、自分の好きなデバイスを選択し、あとは合わせてモデルを使えるようにするのです。エンジニアツールとして使う形で、年間ライセンスを払う仕組みです。

もう一つは小さな会社向けのモデルです。小さな会社にはエンジニアがあまりいません。全くいない会社もあります。notaAIがエンジニアツールを提供しても使えないのです。そのような場合は、スーパーで牛乳を売るように、notaAIが独自に軽量化した人工知能ソリューションを作って販売します。ソリューション自体をデバイスに搭載して販売するモデルです。デバイスごとにライセンスを付与します。最低注文数量が1万台であれば、それを基準に1台あたりいくらという風に。」

-顧客が要望すれば、0から人工知能モデルを作って販売する?顧客はもちろん学習するデータを持っていますが、そのような人工知能モデルの所有権は誰が持つのでしょうか?

「その会社持ちになります。代わりに「ライセンス」の話をしましたよね。例えば、notaAIの顧客の中にブラックボックスの会社があります。ブラックボックスの会社はブラックボックスを顧客に売っていますよね。notaAIの人工知能ソフトウェアを搭載し、製品自体を売るのです。ブラックボックスの様々な機能の中で、例えば居眠り運転や、喫煙をコントロールすること。ブラックボックスはデバイスも非常に小さく、チップも非常に安いものを使っています。

安価なチップでAIモデルを高速に動作させること自体が、実は非常に難しいんです。だから、ブラックボックス企業は従来はみんなクラウドを使っていました。問題は、常に誰かに運転しているところを見られる環境というのは、運転する側としては嫌ですよね。そうなると、ただデバイスで処理し、映像をクラウドに送らないというのが、一番ですよね。ただ、例えば精油会社の運転手さんが、精油を載せた車を引っ張って行くときにタバコを吸ったら、それは問題です。そういう状況情報だけをサーバーに送るんです。クラウドで。

プライバシーの問題も起きないし、当然管理は管理された通りにできるようになります。エッジで処理を済ませるので。この場合、notaAIがライセンスをブラックボックスに入れてあげます。」

[4] リダンダントをなくす...プルーニングなど軽量化4つの技術について「手に取るようにわかる説明」

 -人工知能を軽量化しなければならない理由はわかりました。でも、どうやって「軽量化」するのですか?

「いろいろありますが、基本的なコンセプトはこれです。人工知能モデルが学習する際、学習されたモデルはすごく効率よく学習したわけではありません。かなりリダンダント(redundant-不要な、役に立たない)な部分が多いです。中に入っているニューロンというものがリダンダントな役割を果たしていることが多いです。リダンダントな役割をするものを取り除くのです。」

-リダンダントな役割を削除するのが基本?

「リダンダントというのは、同じ役割を担うものが複数あるということですよね。同じ役割をするものを減らしてやるのです。一つだけ残して残りを全部削除したり、演算をしないようにしたり。性能を維持しながら、演算を大幅に削減します。このような技術をプルーニング(pruning)といいます。剪定する、という意味です。ニューラルネットワークから不要なものを取り除く。

デコンポジションという技術もあります。簡単に言うとこうしたものです。「3×3」はせずに、なぜかというと「3×3」は演算時間がかかるので、同じ演算を「3+3+3」で行うのです。人工知能モデルはほとんど行列の積で構成されています。行列を掛けるのにすごく時間がかかります。演算方法を変えてやるのです。行列の異なる状態の積や和に変えて、10秒かかることを5秒で行います。」

-知識を蒸留するという話を聞いたことがあります。

「知識を蒸留する、「ナレッジディスティレーション(distillation)」という技術があります。学校で先生が子供たちを教えるのと同じようなものです。実際にナレッジディスティレーション技術には、ティーチャーネットワークとスチューデントネットワークがあります。ティーチャーネットワークは私たちが学習したモデル、つまり実際に大きなモデルです。スチューデントネットワークは実際の推論に使うほどの小さなモデルです。大きなモデルから知識のエキスだけを抽出して、スチューデントネットワークに提供します。

最後に、量子化という技術があります。コンピュータのメモリ関連の話です。ニューラルネットワークが学習するとき、そのハードウェアがサーバーであろうとモバイルであろうと、そのデバイスが持っているRAMで演算を行います。ニューラルネットワークのパラメータのうち演算子たちがSRAM(ラム)に上がって演算します。RAMサイズがものすごく大きくければ、一度に上げて演算できないんです。一部演算して下ろしてまた上げてまた演算して、また下ろして、このようなレックが起こり続けます。可能であれば、人工知能モデルのパラメータを一度にRAMに投入して演算するのが一番早いです。

そのためには、演算子一つ一つがメモリを極力少なくする必要があります。しかし、ニューラルネットワークのほとんどの演算子は小数点以下14桁の値になっています。そうすると、コンピュータの中ではメモリを多く占有します。少し四捨五入するような感じで、小数点以下14桁の値を小数点以下3桁に減らしたり、あるいは整数型に変えたり、メモリを遥かに少なく使うようにするのです。しかし、単純に四捨五入したり、切り捨てたり、上げたりすると問題が多く発生します。なぜなら、すべてネットワークに接続されているからです。この値一つを変えたときに、他をどう変えれば性能が落ちないかが重要です。

変えても性能が落ちないようにした上で演算を行います。そうすることで、メモリに一度に多くの値を載せることができ、演算をより速くすることができます。

AIはプルーニング、ディコンポジション、ナレッジディスティレーション、量子化の4つの技術を組み合わせて活用しています。4つのうち1つだけを活用するわけではなく、4つをどの順番で組み合わせるか、そしてそれぞれの4つの技術も、その内訳を見ると。また技術の種類がすごく多様なんです。それをどう組み合わせるか。notaAIはこれをレシピと呼んでいます。レシピはモデルごとに全て違います。チップも違うし、メモリも違います。

notaAIはレシピを作り上げました。それがNetsPressoというプラットフォームです。人工知能モデルを最適化するプラットフォームです。」  



[5] NVIDIA, ARM, Renesas...半導体企業との協業を推進中

-「notaAIは100メガバイトのAI推論モデルを1メガバイトに減らしたことがある」と言われました。それだけ小さなチップの上でも動くということでしょうか?

「そうですね。notaAIは、RAMサイズがとても小さなモデルを扱っています。今世界で多く使われているAIモデル、ディープラーニングモデルは、基本的にモデルサイズがそれよりはるかに大きいです。最近出てきたジェネレーティブAIのモデルはとんでもなく大きいです。しかし、すべての会社がNaverやKakaoのようにデータセンターを備えることはできませんよね。」

-先ほどのブラックボックスの例で、どれくらい小さくなるのか説明してください。

「ブラックボックスには8つのAIモデルが入っています。8つのモデルが並列で回らなければなりません。8つのモデルが一緒に動作する必要があります。例えば、私がタバコを吸っているのを見つけるときには、まず人を見つけなければならず、次に顔を見つけなければならないし、その次は単にタバコを吸うということだけを探すのではありません。目を閉じているか等、を見ます。いろいろなものを確認するモデルが複数入っていて、少し大きなモデルになります。notaAIは、その大きなモデルを、ブラックボックスのチップでも動作するようにサイズを小さくしたのです。」

-既存の人工知能モデルを最大99%まで圧縮、軽量化することが可能?

「そもそもモデル自体が非常にリダンダントが高ければ、非常に多くの削減が可能です。99%以上減らすことができます。しかし、通常扱うほとんどのケースは、実際平均を出すのは少し難しいのですが、一般的には60~70%程度小さくなることが多いです。」

-notaAIに持ち込めば、60~70%も圧縮してくれる?これだけで、経済的なコスト削減になりますよね?実はnotaAIの売り上げを見たのですが、それほど多くはありませんでした。聞いていると、画期的な技術なのに、なぜ儲からないのでしょうか?

「まず、notaAIは「NetsPresso」というプラットフォームを作るのに多くの時間を費やしました。なぜなら、このプラットフォームは世の中に既にあったプラットフォームではないためです。 AI軽量化はケース数が事実上無限大です。 無限というのは、モデルによっても違うし、デバイスによっても違うし、チップもそれぞれ違うためです。以前はnotaAIの競合他社はもちろん、各企業も軽量化を手作業で行っていました。エンジニアが直接行うのです。notaAIはそういうやり方は合わないと考えました。どういうことかというと、そうすると、当社はエンジニアが多くなければ、お金をたくさん稼げないのです。一種のSIビジネスのように。」

-顧客が増えれば増えるほど、エンジニアも多く採用する必要があります。費用が増えるので、大きく稼ぐのは難しいでしょう。

「そうです。notaAIはスケーラビリティが低いと考え、ほとんどの需要はプラットフォームで対応しようというアプローチしました。プラットフォームを高度化し続けるのです。対応機種やデバイス数も増やし、私たちのレシピも搭載し続けます。プラットフォームを作るのに時間がかかりました。昨年8月末にビジネスプラットフォームが完成しました。昨年までは売り上げが20億ウォン(約2.2億円)程で、今年は予想売り上げが50億ウォン程(約5.4億円)です。来年は100億ウォン(約10.9億円)程度を見込んでいます。」

-ビジネスモデルだけ見ると、言語の壁もないので、「notaAIのプラットフォーム仮説」が実証されれば、すぐに海外進出も可能なのでは?

「notaAIは海外をメインターゲットとしています。ただ、このプラットフォームを世界中の顧客にいちいち営業するのではなく、半導体会社に売ろうとしています。notaAIは、当社の技術の需要がチップ会社にとって一番大きいと考えました。notaAIが全世界にあるすべての顧客にいちいち営業するのではなく、チップ会社と私たちがB2B営業を行い、チップ会社がチップを販売する際に、これを顧客に提供するようなビジネスをしようと考えています。」

-例えば、notaAIがブラックボックスの会社に「軽量化プラットフォーム」を提案する必要はないということですよね?どうせブラックボックスの会社は機器を作るときに、チップを買うために半導体会社と顔を合わせるでしょうから。その時、半導体会社が「こんな機能を入れようとしているのか?じゃあ、こういう技術を使うべきだ」と代わりに教えてあげればいいのですから。

「そうですね。notaAI側としては、営業組織も増やさずに済みます。notaAIはNVIDIA(エンビディア)、ARM(アーム)、Intel(インテル)などの企業と主に協業しています。日本ではRenesas(レネサス)という車載用半導体やIoTビジネスを行うチップの会社と主に仕事をしています。」  

[6] OpenAIの基礎モデル....BMが衝突するか?

-結局、OpenAI(オープンAI)とぶつかるビジネスではないですか?

「OpenAIは、モデルがあまりにも巨大にならざるを得ません。人間ができることであれば何でもできる人工知能ですからね。大きなモデルを作るのはもちろん、運用するのにもものすごくお金がかかります。OpenAIは、顧客が増えれば増えるほど、運用リソースも伸ばさなければいけません。OpenAIにももちろん優秀な人材がたくさんいるので、当社のような軽量化技術を独自にやることもできますし、私の知る限りではやっているとも聞いています。

OpenAIは、ラージスケールランゲージモデルのほうにフォーカスしています。notaAIは組み込みデバイス方面です。notaAIが主にターゲットにしているのは、カメラセンサーやスマートフォン、ドローン、コネクティッドカーのようなものです。技術のコンセプトは基本的に同じです。

OpenAIもモデル自体をすべて提供しているわけではありません。グローバルなファンデーションモデルと言っていますよね。ファンデーションモデルをうまく作り、どこかのコールセンターでチャットボット用に使うなら、それに合わせて売るでしょう。小さくするためには、軽量化や最適化技術が必要です。

B2Bを例にとると、SAMSUNG(サムスン電子)でもコードなどをChatGPTに載せないようにしていますよね。結局、プライベートクラウドの形で、B2Bで売らなければならず、販売する際には(OpenAIが)ファンデーションモデルそのものを売るわけではありません。それを小さくして、顧客が使いたい用途で売るのです。」

[7] KAIST創業チームが失敗から学んだ教訓「技術だけではお金を稼げない」

-NetsPressoの特許取得はどうですか?

「現在、韓国、アメリカ、日本で特許を保有しています。NetsPressoの中に入っている技術も30件以上の特許を所有しています。」

-半導体会社と協力するということですが、SAMSUNG(サムスン電子)やSK Hynix(SKハイニックス)などのメモリ会社は協力が難しいのですか?メモリだけ売っているから?

「notaAIはメモリではなく、非メモリ、つまりシステム半導体と呼ばれるAIチップの会社がメインです。」

-もともとKAISTの学生起業だったんですよね?それも2015年に?かなり長いですね。

「高校時代から一緒に勉強していた友人4人で大学・大学院まで一緒に進学し、起業しました。実は最初はあまり起業する気はなかったんです。KAISTの創業プログラムで「人工知能に基づいてタイプミスを減らすスマートフォンキーボードアプリケーション」を発表しました。 「notaキーボード」です。 「ノータイプミスキーボード」の略です。」

-創業時のアイテムは今とは全然違いますね。 「ノータイプミスキーボード」?

「人工知能が自分の使用するキーボードのパターンを学習し、カスタマイズされたキーボードになるのです。それが賞をもらいました。いろいろなところで賞をもらったのですが、審査員の一人が当時NaverD2SFを作っていました。D2SFとnotaAIは設立日が同じです。投資を受けて設立しました。当時、notaAIは多くのミスを犯しました。技術をうまく作ればお金になると思っていました。ワールドクラスの技術ならお金になる。実際にやってみるとそうではありませんでした。notaキーボードはそれなりによくできていました。韓国においてのみ、アンドロイド市場で16万人以上が使っていたのです。短期間でお金を稼ぐことはできませんでした。無料で提供していたので。ユーザーにお金を払って使うように説得することはできませんでした。B2Cでは限界がある。それでB2Bに行こうということで、SAMSUNG(サムスン電子)、LG電子、Huawei(ファーウェイ)、Apple(アップル)などをタップしました。タイプミスのないスマートフォンを創ろうという提案でした。」

-スタートアップがタイプミスをなくしたのに、お金を稼げなかった?

「うまくいきませんでした。理由は、notaAIは技術のみが良かったためです。技術だけ良く、キーボードアプリとして、プロダクトとしての魅力はほとんどありませんでした。技術だけでは世の中でお金を稼ぐことができないんだなと知り、戸惑い始めました。notaAIには、機械学習をやっていた人たちだけが集まったわけではありません。工業デザインをしている人、細胞生物学をしている人もいました。彼らも自分たちのキャリアがあるわけで、「私は自分の道を行く」とファウンダーたちも去り、notaAIも真剣に悩みました。会社を畳もうか、という悩みです。」 



[8] 5年以内に500億ウォン(約54.5.億円)の売上目標...ASMLのような企業になること

-3年での失敗ですね。諦めて大企業に就職することもできたはずだと思いますが

「2018年初めの話です。私たちを信じて投資してくれた投資会社があるのに、ただ畳むわけにはいかない、もう少しやってみようということで、私とキム・テホ共同創業者でアイデアをたくさん出しました。 「私たちが今まで一番頑張ってきたことは何だろう」と考えました。ノータイプミスキーボードですから、タイプミスを減らすために最も多くの時間を費やして努力したはずなのに、実際には「タイプミスを減らすアルゴリズム」を「スマートフォンに入れ込むことに」もっと多くの努力を傾けていました。最初notaAIは顧客のタッチポイントをサーバーに送って処理していたのです。顧客はすごく嫌がっていました。口座番号も、パスワードも入力すると、外部サーバーに送信されるのです。

だから私たちは絶対にこれはスマートフォン内で動かさないと。当時は圧縮、軽量化なんて言葉もあまりなかった時代で、どうにかしてここに押し込めないといけないと考えていました。そして、「こんな悩みを抱えている人は世の中に私たちだけなのかな」と思ったのです。これからAIが世の中にたくさん普及していく中で、このような問題を私たちが解決すれば価値があるのではないか。notaキーボードから学んだ「オンデバイスAI」というコンセプトでピボットすることにしました。」

-ピボットした2018年は職員は何人程いましたか?

「職員というか、ただ2人きりでした。私とキム・テホ共同創業者。2人ですが、キム・テホ共同創業者は当時専門研究員になるはずでした。代替服務です。」

-人工知能の世界でnotaAIが描く目標は?

「後々、人工知能の普及に最も貢献した会社はnotaAI、と記憶されることを一番望んでいます。半導体の話をするとき、ASMLという企業名をよく耳にしますよね。ほとんど知られていない会社ですが、この半導体業界を語る上で絶対に外せない会社です。ほぼ独占企業でもありますし。そういう会社のようにあまり知られていなくても、本当にコアとなる人工知能の半導体会社が、notaAIがなければ私たちは顧客に製品を売るのは難しいと口にすることを、期待しています。」

-売上や企業価値の目標は?

「5年以内に、それでも500億ウォン(約54.5億円)程の売上を上げたいです。notaAIはコストをあまり使わなくてもいいので、営業利益はかなり高く取れる会社になるでしょう。もちろんチャレンジの時期が来ると思います。M&Aなどもあるかもしれませんね。」

-人工知能軽量化というグローバル市場では、競合他社もかなり多いでしょう?

「notaAIのような会社が4、5社ほどあります。グローバルで。最近、少し増えましたが。逆に、以前から共に競争を行っていた会社が4~5社ほどあります。ほとんどが北米の会社です。ここ1年以内にそのうち3社が買収されました。みんな半導体会社にです。ちょっと冗談めいた話ですが、5月にこの業界のイベントに行ったら、「もうお前らしか残ってない。次はお前らの番だ」と言われました。

もちろんこの市場にも競争はあります。競争はありますし、そうした会社もみんな頑張っています。今のところ、notaAIも、そうした会社とも仲良くしています。市場がまだそれほど大きくないためです。私たちだけで競争して誰かがすべてを掌握できる状況ではありません。お互いスタートアップですしね。むしろ、市場や技術情報を共有したり、顧客の反応もお互いに話しています。市場を育てようと努力しているのです。」



 



/media/ちょい事情通の記者(쫌아는기자들)
記事を書いた人
ちょい事情通の記者(쫌아는기자들)

朝鮮日報のニュースレター、「ちょい事情通の記者(쫌아는기자들)」です。

  • ホーム
  • 企画記事
  • 「プルーニング」を聞いたことがない人は、AIの勉強を再開しよう!