*特集「AI時代のアート」のほかの記事はこちら(随時更新)
「自撮り」や「盛り」に親しむ方々に、話を聞かせてもらうことが多い。ここ1年くらいだろうか。そこでも「AI」という言葉を耳にするようになった。私は工学部出身で、新しい技術が作る未来を想像すると、ついわくわくしてしまうたちだ。みんなそうだと思い込んで臨んだら、面食らった。「自撮り」や「盛り」の技術のユーザたちは、「AI」の話をする時、眉をひそめる。
「AIであまり美人になるのはどうか。」
「AIであまり別人になるのはどうか。」
完全に否定するわけではないが、望ましいわけではない様子だ。こう付け加える人もいる。
「そのままの自分がいい。BeReal(*1)がいい。」
そこで疑問に思う。「AI」という言葉と、「美人」や「別人」という言葉が、なぜ結びついているのだろうか。「盛り」を支援するのは「画像処理」技術。そこに利用される「AI」の技術とは、現状こういうものだ。コンピュータが大量の画像データからパターンを学習し、それに基づいて、入力した画像の認識をしたり、加工したり、新たな画像を生成する。それは「美人」や「別人」を生成するための技術ではない。
女子大学で私が担当している授業の生徒たちに、「自撮り」や「盛り」によく利用しているスマホアプリを聞いた。そこで挙がったものを起動すると、いずれも「AI」という名の付いた機能があった。たとえば「SNOW(*2)」。下の「AI」と書かれたアイコンをタップすると、様々なテーマが一覧される。ユーザが自撮りしてできた顔画像に、「AI」の技術を使った画像処理をして、そのテーマのパターンに従った顔画像を生成してくれる。
たとえば、「漫画キャラクター」や「ゲームキャラクター」というテーマがある。それを選べば、自分の顔を元に、そのパターンに従った顔が生成される。「プロフィール」というテーマを選んで生成されるのは、いわゆる「美人」のパターンに従った顔だと考えられる。
なるほど、現状、「自撮り」や「盛り」に親しむ人々が使っている「AI」の技術は、「美人」や「別人」の生成に使われていることが多い。だから両者が結びついていたわけだ。しかしそれは「AI」の技術の使い方の、ほんの一例に過ぎない。
歴史は繰り返す。「AI」の技術が導入される前の顔の「画像処理」技術も、最初は「美人」や「別人」を生成するために使われた。日本では1980年代頃から、産業用ロボットやテレビ電話のために、顔認識技術の開発が進んだ。カメラで撮影した顔画像から、目や口などの特徴点を抽出できるようになった。
1990年代には、それをエンタテインメントに利用することがさかんになった。抽出した目や口の特徴点を動かして、「美人」や「別人」の顔を生成する技術が開発された。たとえば、ゲームセンターのアミューズメントマシンに用いられた。後のプリクラのように、ユーザが顔を撮影すると、顔画像を処理して、その場で印刷するマシンだ。1993年にパナソニックが生産した「メタモルフェイス」は、ユーザーの顔の特徴を持つ大仏やゴリラなどの画像を生成した。1997年にオムロンが開発した「似テランジェロ」は、イラストレーターが描いたようなユーザの似顔絵を生成した。
これらは最先端の画像処理技術を搭載していた。しかし1995年に登場する、画像処理をしない「プリント倶楽部」の方が人気になった。そこから「プリクラ」文化が発展することになった。まもなく「プリクラ」にも画像処理技術が搭載された。最初は画像全体を明るくするようなものだった。2000年代になると、目だけを抽出して加工し、いわゆる「デカ目」の顔を生成するようになる。「デカ目」の顔は「美人」でも「別人」でもない。プリクラメーカーがユーザーインタビューを積み重ねて明らかになった、ユーザーが求める「盛れてる」顔だった。
「盛れてる」とは何なのか。なぜ「デカ目」になりたいのかと、当時私はユーザーたちに話を聞いた。そこで挙がったのは「自分らしさ」という言葉だった。「デカ目」になった顔は、もうその人の顔ではないし、皆そっくりに見える。「自分らしさ」とは反対にあるものではないかと、私は最初思った。しかし調べるうち、そこで言う「自分らしさ」とは、元からある「自分らしさ」ではなく、作る「自分らしさ」だとわかってきた。また、デカ目の人同士にはわかる差異があることもわかってきた。デカ目を選ぶ「自分らしさ」や、デカ目の中の「自分らしさ」があった。そういう人工的で相対的な「自分らしさ」を見せ合って、デカ目の人同士でコミュニケーションしていた。それこそが「盛り」の目的なのだとわかってきた。それは「美人」や「別人」の顔では達成できない。「盛れてる」顔だから達成できるものだった。
このようなプリクラの歴史を振り返れば、「盛り」に親しむ人がいま、「美人」や「別人」になるために使われている技術に、眉をひそめているのは腑に落ちる。「AI」を利用した画像処理技術もこれから、「美人」や「別人」を生成するためでなく、人工的で相対的な「自分らしさ」を生成するために、使われるようになると考える。
「AI」を利用した画像処理技術は、どんな「盛り」を支援することになるのだろうか。「盛り」とは「デカ目」になることだけではない。「盛り」の対象は時代によって変化してきた。かつて、自分の顔画像を使って、実際にあったことのない他者とコミュニケーションできるのは、基本的には、芸能人のような特別な人だけだった。それを、一般の人にもできるようにしたのは「プリクラ」だ。ユーザーはすぐに「プリ帳」を作り始め、シールを交換して、貼って、見せ合った。プリクラは「顔」を撮影するマシンとして生まれた。だから「顔」を見せ合うコミュニケーションが始まった。必然と、「盛り」の対象も「顔」になった。この時代を私は「MORI1.0」と呼んでいる。
2000年に「カメラ付き携帯電話」が登場すると、手元の端末を用いた「自撮り」が始まった。2000年代後期には、無線通信の速度が向上し、「ケータイブログ」に「自撮り」写真を投稿することがさかんになった。携帯電話のディスプレイは小さく、目をカメラに近づけて「自撮り」することになる。ケータイブログでは、アイメイクを見せ合うコミュニケーションがさかんになった。「盛り」の対象は「目」になった。この時代を私は「MORI 2.0」と呼んでいる。
2010年にはiPhoneにフロントカメラが搭載される。その頃から「自撮り」は「スマートフォン」で行われるようになった。同年、Instagramが登場し、SNSによる写真の共有がさかんになった。スマートフォンのディスプレイは大きく、目をカメラから離して「自撮り」できる。インスタグラムでは、自分を含む「シーン」を見せ合うことがさかんになった。「盛り」の対象も「シーン」になり、「インスタ映え」という言葉も生まれた。この時代を私は「MORI3.0」と呼んでいる。
このように、「盛り」の対象は、それを囲む技術環境と共に変化してきた。具体的には、カメラのような「センシング」の技術と、「ディスプレイ」の技術の変化が大きく影響してきた。「AI」の技術は、そこにどのような変化を与えるのだろうか。
「AI」を利用してユーザーを「センシング」する技術で、すでに普及しているものはSNSの中にある。SNSは、大量のデータからパターンを学習し、それに基づいて、ユーザーの行動履歴から「好きなこと」を「センシング」している。Instagramが「大切な人や大好きなことと、あなたを近づける」というミッションを掲げているのは象徴的だ。それによってユーザーに適した広告を配信し、広告収入を得ているのだ。
「AI」を利用してユーザーが「ディスプレイ」する技術で、近年普及が進むのが画像生成AIのツールだ。代表的なものにDALL·E(*3)、Midjourney(*4)、Stable Diffusion(*5)などがあり、新たなツールも次々と公開されている。これらは、大量のデータからパターンを学習し、それに基づいて、ユーザーが自然言語(*6)で入力する「プロンプト(*7)」に応じた画像を「ディスプレイ」する。これらの「AI」技術を活かして、「盛り」の対象はこれからどうなっていくのだろうか。
ところで「MORI3.0」では、自分を含む「シーン」を「自撮り」し、SNSで見せ合うようになったと述べた。そこでは自分の「顔」を見せないことが増えた。なぜ「顔」を見せないのか、機会あるごとに、ユーザーたちに話を聞いている。
近年、「顔」よりも見せたいものとして挙がるのが、「雰囲気」や「バイブス」という言葉だ。今月、女子大学で私が担当している授業の生徒たちに聞いたときも、SNSでは「顔」を見せないと答えた13人のうちの5人が、その理由は「顔」より「雰囲気」を見せたいからだと述べた。「雰囲気」はその人の外側から発するもの、「バイブス」はその人の内側から発するものを表すと考えられ、いずれも感覚的で、形のないものだ。
「AI」の技術は、そのような形のないものを「センシング」したり「ディスプレイ」したりすることに貢献する。SNSは、すでにユーザーの「好きなこと」を認識しているが、さらにユーザーの好きな「雰囲気」や「バイブス」も認識できるだろう。画像生成AIツールは、入力する「プロンプト」次第で、無限に多様なものも視覚化できる。最適な「プロンプト」を入力できれば、ユーザーが視覚化したい「雰囲気」や「バイブス」も視覚化できる。「AI」の技術の支援を受けて、「自撮り」や「盛り」の対象は、自分の「雰囲気」や「バイブス」になるのではないか。そこに人工的で相対的な「自分らしさ」を投影し、「雰囲気」や「バイブス」を共有する人同士で、コミュニケーションすることが進むのではないか。
このように、「自撮り」や「盛り」に親しむ人が今求めていることと、「AI」の技術が貢献することは、合致している。それにも関わらず、「自撮り」や「盛り」のユーザーが求めないことに、「AI」の技術がいま利用がされているのは、なぜだろうか。
人は、自分を材料にするものづくりの方が好きな人と、自分の外にあるものを材料にするものづくりの方が好きな人に、分かれるのではないか。「自撮り」や「盛り」に親しむ人には前者が多く、技術者には後者が多いのではないかと考える。技術者に憧れた私も後者である。だから技術は、後者のニーズに応えるツールの開発が先に進み、前者のニーズに応えるツールの開発が後回しになりやすい。「AI」の技術は、まだその第一段階にあるのだと考える。
いま、次々と公開されている画像生成AIのツールは、それを示す。新しく公開されるツールを私も色々試しているが、どれも「自撮り」や「盛り」に適していない。自分の顔に固定することや、化粧だけを変化させることができないのだ。もちろん、Stable Diffusionのようなオープンな開発環境を利用して、自らツールを作れば可能になるだろう。いっぽう、たとえば、空想の美少女を生成することは日進月歩で簡単になっている。
ただし、簡単さばかりが、求められてはいない。MORI1.0からMORI3.0までの歴史が明らかにしたのは、「盛り」のユーザーに普及するツールは、「間口が広く、奥が深い」ものだということだ。それによって、人工的で相対的な「自分らしさ」を見せ合うコミュニケーションが活性化する。プリクラは象徴的だ。
それに対し、いま、「自撮り」や「盛り」に使われているスマホアプリの「AI」機能は、ワンタッチで画像処理できて簡単過ぎる。それよりも、画像処理をしない「Be Real」のほうが難しく、コミュニケーションを活性化している。つまり、現状の「AI」を利用した画像処理のツールは、スマホでワンタッチで操作できるような「間口は広いが、奥が浅い」ものか、プログラミングを要するような「奥が深いが、間口が狭い」もののどちらかなのだ。
プリクラメーカはユーザインタビューを積み重ね、技術者とユーザとが常に連携しながら、「盛り」の技術を開発してきた。「AI」技術を活かした「MORI4.0」の時代が来るのは、「盛り」のユーザと技術者が連携した時ではないか。いや、その前に、「盛り」のユーザーが技術者になる時が来るかもしれない。
*1── フランスの企業BeReal社が公開したSNSアプリ。ユーザーに対して毎日異なる時間に通知を送り、その瞬間に前後のカメラで撮影した写真をシェアすることを促す。画像処理をしない「リアル」な写真を見せ合うことを特徴としている。
*2── 韓国の企業SNOW Corporationが公開した写真・動画加工アプリ。豊富なフィルターやスタンプ、ARエフェクトを使っうことができる。
*3── OpenAIが開発した画像生成AIツール。
*4── Midjourney社が開発した画像生成AIツール。
*5── Stability AIが開発した画像生成AIツール。開発プロセスがオープンで、多くの研究者や開発者が参加しやすい環境が整っている。
*6── 人間が日常的に使う言語のこと。自然言語処理(NLP: Natural Language Processing)技術により、コンピュータが理解し、解析可能になる。
*7── ここでは、ユーザーが画像生成AIに対して与える命令や指示。通常、自然言語で記述する。
久保友香
久保友香