ストーリー

Bot(ボット)にまつわる4つの真実

投稿者
火曜日, 2021年9月21日火曜日

Twitterアカウントの運用者が人間かボットなのかを、見分けることはできるのでしょうか?

日常的にTwitterを利用している人を対象に4か国で最近実施した社内調査によると、Twitterを使う上で一番心配なことは「ボットやなりすましアカウントが多すぎる」という回答でした。

そこで、今回のTwitterトリビアでは、ボット問題を理解し、ありがちな誤解を解くために、Twitterでボットに詳しいYoel Rothに話を聞いています。RothはTwitterのサイトインテグリティ部門の責任者で、スパム、ボット、誤情報、偽情報などに関するルールを定めて実施する各部門を統括しています。そのうちのひとつ、プラットフォームインテグリティ部門が、ロボットと人間を区別するタスクを担っています(自分がロボットだと気づかないロボットだったら、為す術もないですね)。 

すべてのボットが悪者ではありません。たとえば、@tinycarebot@queerlitbotは、単純に楽しめるアカウントです。Twitterでは、こうしたアカウントを安心して利用できるようにするために、GoodBots(優良ボット)ラベルをプロフィールに表示する機能を追加しました。プラットフォームインテグリティ部門が相手にするボットはもっぱら、Twitterで情報をねじ曲げて伝えたり、利用者を意のままに操ったりすることを目的として、巧妙に仕組まれたなりすましアカウントです。怪しいアカウントを嗅ぎ分ける第一関門として、同部門では機械学習で悪意ある活動のパターンを認識するよう、アルゴリズムを訓練しています。この自動化されたプロセスで、週に500万から1000万もの不正なアカウントを判別できます。 

次に、データ解析チームが調査を開始します。アカウントが自動化されているのか、人間が対価を得てボットのようにふるまっているのか、人間によるツイートが単にボットっぽいだけなのかなど、よりややこしい問題にチームで対処します。時には調査報道ジャーナリストなどの外部の専門家と組んで、ソーシャルメディアでの巧妙な介入工作を見破ることもあります。こうしてボットであることを突き止めても、次から次に湧いてくるなりすましアカウントとの戦いは、もぐらたたきのようにきりがありません。   

しかし、2014年から長きにわたってTwitterのセーフティ部門に携わってきたRothは、この状況を大局的に捉えています。問題はボットの数ではなく(四半期ごとのTwitterレポートでは5%前後)、Twitter上の会話でどの程度の影響力があるかだとRothは言います。ここからは、その影響をインプレッション数(表示件数)で測定する具体的な方法とともに、知っておいてほしいボットの真実を4つ解説します。 

その1: 変わった名前のアカウントはボットだと決めつけない

ボットの見分け方としてまず誰もが初めに気づくのが、ランダムな英数字をユーザー名に持つアカウントです。これは簡単になりすましアカウントを判別する方法として広く受け入れられています。多数のアカウントを自動生成するのには、自動的に割り当てされるユーザー名をそのまま使うほうが簡単だから、と思われているからでしょう。 

「これについては、Twitterに非があります。実際には(運用者は)本物の人間なのに、他の利用者からボットに見られるようなユーザー名を割り当てているのですから」とRothは言います。 

Twitterのユーザー名生成アルゴリズムでは、入力されたアルファベットの名前と数字を組み合わせたユーザー名が生成されます。Roth曰く、自動生成によるユーザー名の提案は、利用者がキャッチーな名前を考える考えることなく、すぐにTwitterを始められる利点がある一方で、一部の利用者がボットのように見えてしまう欠点もあります。さらに事情を複雑にしているのが、このアルファベットの名前と数字による自動生成が、アルファベットで入力された名前のみに対応している点です。Twitterはグローバルなプラットフォームであるため、ひらがなやカタカナ、漢字、アラビア文字、ヘブライ文字などアルファベット以外の文字で名前を初期登録する利用者も多いのに、ユーザー名は自動的に意味のない英数字の羅列に変換されてしまいます。 

「そのせいで、ユーザー名を見た利用者から『これはボットに違いない』と思われてしまいます。アジアや中東のユーザーのアカウントがボットに間違われることが多い理由はこれです。Twitterアカウントに関しては、一見疑わしいユーザー名でも、本当に怪しいのかどうかを見極めるのは非常に難しいと言えるでしょう」とRothは語っています。

その2: 桁外れにツイート数が多くてもボットとは限らない

ボットの証拠だと思われてしまう行為に、1時間に数百件など、ツイートやリツイートが多いことが挙げられます。 

「​​ボットと言えば、大量のスパムが一方的に送りつけられるようなものをイメージするのではないでしょうか。たとえば、アリアナ・グランデがツイートするたびに自動的にリツイートするアカウントを作るような感じです」とRothは語っていますが、大量のツイートやリツイートも、結局は人間がやっていることが明らかになっています。「大量に発信する人について、今までかなりのリサーチを行ってきました。確かにスパムやなりすましアカウントであることもありましたが、実際は多くのケースで人間がTwitterを想定外の方法で利用しているだけでした」 

Rothの担当部門で日々数百ものツイートをしているアカウントを調査しましたが、結果としては、大量にツイートを読み、一つひとつにいいねをして好意や賛同を表したいだけの実在の人間でした。つまり、常に自宅にいる、仕事がソーシャルメディア関連である、興味のある内容をひたすら追いかけている、といった理由により、高頻度でTwitterを利用している人がいるのです。

Twitterに「普通の使い方」などない、とRothは言います。特にTwitterのようなプラットフォームをどう使うかという文化的規範は、個人やその所属するコミュニティ、国民性などによっても変わってきます。 

さらに、「互いをボットだと非難し合うケースでは、どちらも人間であり、異なる手段や目的でTwitterというプラットフォームを利用しているだけという結論に至ることが多いのです」と続けました。

その3: 自分と反対の意見を持つ人が、必ずしも世論を操作しようとしているわけではない

2016年のアメリカ大統領選挙後、ニュースで取り上げられることが増え、一般に知識として浸透したことと言えば、ソーシャルメディアは人々を分断する武器になり得るという認識でした。ソーシャルメディアの世論操作に関するリテラシーが高まるにつれ、別のトレンドが生まれていることにRothは気づきます。それはツイートの内容に賛成できず意見が対立した場合に、人は互いをボットだと非難し合うケースが増えるということでした。 

「ソーシャルメディアでの世論操作について、多くの方が話題にし、理解しようとしてくれている現状を、とてもうれしく思っています。それにより、自分自身を守る方法を知ることができるからです。ただ問題は、意見が合わない人と対立した時に、世論操作だと短絡的に決めつけてしまうことがあるという点です」 

ペンシルバニア大学でコミュニケーション学の博士号を修めたRothは、社内でデータ分析による実験を行うことにしました。返信の中に相手をボット呼ばわりするフレーズが含まれるツイートをサンプルとして抽出。数週間実験を続け、実際のボットの数を数えてみました。 

「サンプルのアカウントを一つひとつ精査し、自動化されている、なりすまし、偽物、ロシアの世論操作の一環であるアカウントの数を実際に数えましたが、結果はゼロでした」とRothは語っています。 

問題はボットではなく、敵意を剥き出しにした不快なやりとりがTwitter上で行われているという、より大きな問題です。Rothは、インターネット上で自分と異なる意見を持つ人物に対して、虚偽の情報を流す人であると安易に決めつけることは、生身の人間を人間扱いしなくなる危険をはらんでいると考えます。  

このポストは表示できません
このポストは表示できません.

「ネット上では、気に入らないことや賛同できないこともあるでしょう。これらから自分を守る方法はあってしかるべきです。しかしそこには、意見を異にする人々も人間であるという認識が必要であり、ボット呼ばわりして相手の人間性を無視するのは違います」とRothは述べています。

その4: Twitterで見たことは必ずしも行動につながらない

Twitterにはボットに見える人も、本物のボットも存在することが分かりました。ここで問うべきは、実際にボットが人の会話にどの程度影響を与え、考えを操作しているのかということです。 

「プラットフォームの世論操作とボットについて言えるのは、ボットが存在するという事実があっても、必ずしも会話に影響を及ぼしているとは限らないということです」とRothは言います。 

ネット上の事象が、人の行動にどの程度影響を及ぼすのかを測定するのは困難です。攻撃的なツイートやルール違反のツイートは、インプレッション数が増えないよう担当部門ができるだけ速やかに削除しています。アカウント自体を凍結することもあります。 

またそれ以上に、迷惑度を踏まえて、 該当ツイートが人の目に触れないようにする処理が多く行われています。具体的には、そのアカウントをフォローしていない人に拡散しないようにしたり、検索やトレンド、会話の上位に上がってこないようにしたりしています。  

「影響について考えるとき、単にその事象を何人が目にしたかを基準に測ることがあります。しかし、よく観察していくと、『確かに見た人は多いが、その人たちの行動や考えを変えるほどの内容だろうか?』という視点に至ることも多いのです」とRothは言います。

この分野には数多くの学術調査があります。ペンシルバニア大学のKathleen Hall Jamieson教授は、2016年のアメリカ大統領選で、ロシアのソーシャルメディア介入が激戦州の投票行動に影響を与えたかどうかについて調査しました。選挙期間中にロシア側の関係者が投稿したツイートは13万件を超え、中にはテネシー州の共和党、ニューヨーク在住のCrystal Johnsonという黒人女性、南部在住のPamela Mooreという女性を騙るボットもありました。Jamieson教授は、ロシアの偽情報キャンペーンが直接投票行動に影響したという証拠はないものの、投票した人に確かに影響したと結論づけています。 

つまり、インターネット上で人が目にするものと、実際にどう行動するかを直接結びつけるのは、途方もなく難しいということです。Rothは、私たちが消費しているメディアが私たちの思想信条を操っているという考えは、ラジオが登場した時代にまで遡ると言います。 

「ロシアのボットや同様のプロパガンダを目的とした介入工作について言われるのは、ソーシャルメディア全般について言われることと変わりません。見たものは、そのまま信じてしまうものだと。しかし実際には、それほど単純なものではないのです」

 

このポストは表示できません
このポストは表示できません.