ソーシャルメディアの空間がコントロールの難しい「万人の万人に対する闘争」と化す中、闘争を助長しかねないものとして、「2ちゃんねるまとめ」や「NAVERまとめ」、「Togetter」など、ユーザー自身がネット上の情報を編集できる「まとめサイト」の存在がある。面白い情報が集められており便利な面もあるが、不正確な情報の拡散や、「炎上」を助長しかねないケースもある。このままユーザーの自主性に委ねてもいいのだろうか。何らかのコントロールを行うと、自由な情報発信を妨げる可能性もあるだけに、その対応は難しい。
■責任を取れない「素人」が編集することの危うさ
プロが編集作業を担うマスメディアと異なり、まとめサイトは「素人」であるユーザー自身が集めた情報が中心となる。直接裏を取っているわけでもなく、正しい情報であるかどうかは、見ている側には分かりにくい。Yahoo!ニュースの編集を担当する伊藤儀雄氏が、ある事例を紹介する。
2012年4月に京都の亀岡市で、集団登校中の小学生と引率の保護者の列に少年が運転する車が突っ込んだ事故がありました。事故現場を映したテレビの映像に、携帯電話をいじっている少年の姿が写されていたのですが、これが容疑者ではないかということがネットで話題になりました。そして、容疑者であると決めつけて糾弾するまとめが作成されました。タイトルは「平然と携帯電話をいじる無免許運転犯行グループ」。このまとめはソーシャル上で広く拡散されましたが、別人だとの指摘が相次ぎ、タイトルが変更されました。変更後は「犯人だと間違われてしまった通りすがり」。まるで他人事のようにタイトルを変更するだけ、という非常に無責任な対応でした。
マスメディアで明らかな誤報があった場合には、通常、おわびや訂正記事が出るが、匿名の個人がまとめているケースでは、情報が誤っていても放置されたり、何の説明もなく修正されたりする可能性がある。もっと安易なのが、削除して逃げてしまうことだ。このような「まとめ人」に情報発信の責任を自覚してもらうのは難しい。伊藤氏によると、
意図的なものも、無意識的なものもあるのでしょう。まとめの管理人が、事実がねじ曲がっていることに気づいていないケースもあります。ユーザー自身も、何が正しくて正しくないかを精査せずに鵜呑みにしてしまいがちです。そうした問題のあるコンテンツについて、辿りつくのを難しくしたり、流通させにくくしたりする方法はあるのでしょうか。また、どこに問題があるのか、どこが間違っているのかを指摘したり、可視化したりできるのでしょうか。
よくわからないまま、不正確なまとめ方をして、それを読んだユーザーが拡散してしまう可能性があるということだ。情報の出所をユーザー自身が探り当てることができれば、火消しの情報が拡散される可能性もあるが、そうでないケースでは、不正確な情報が広がってしまう。この状況にどう対処すればいいのだろうか。
■「ミドルメディア」の担い手を規制することの是非
従来のマスメディアと、ブログなどのパーソナルメディアの中間にあるまとめサイトなどを「ミドルメディア」として定義した法政大学の藤代裕之准教授は、「ミドルメディア」における「伝え手」の責任を明確化するため、新たな制度案を提案する。
一つのアイデアですが、何らかの免許や訓練を受けた人間だけがまとめサイトやソーシャルブックマークなどの「ミドルメディア」を扱えるようにするというのがあります。ソーシャルメディアの書き込み一つ一つを削除、訂正していたらきりがありませんが、情報拡散のハブになっているミドルメディアが責任ある情報発信を行うことで改善できる可能性があります。NAVERまとめ、Togetter、はてなブックマークなどを編集できる人に資格を設ける、もしくは表示等に差をつけることも考えるべきではないでしょうか。
資格制にすることで、「まとめ人」に一定のレベルを求めようとする考え方だ。情報を受ける側としても、今よりは情報の信頼性が高まるかもしれない。しかし、制限をかける動きには当然反論もある。立命館大学の西田亮介・特別招聘准教授は、
中間的なメディアを資格性などで規制するとなると、誰でも発言可能というソーシャルメディア社会全体を否定することになりはしないでしょうか。
本来ソーシャルメディアの世界にある良さも失いかねないという根本的な問いかけだ。伊藤氏も別の角度から疑問を投げかける。
編集する人に制限をかけるだけでは問題は解決しそうにありません。多くの人の目に触れるかどうかは、事実上コントロール不可能な状態になっているからです。1つのツイートが起点となって、当該コンテンツが爆発的に拡散されることがあります。固定的な影響力の小さい媒体のコンテンツが、何かのきっかけで一気に拡散されてメインストリームに出てくることが普通に起きるようになっている以上、影響力の大きいメディアやプラットフォームを引き締めたところで、期待する効果は得られにくいのではないでしょうか。
膨大な情報発信が行われる中で、制度的に網をかけて規制しようとしても、完全にはコントロールできないので、効果が薄いという見方だ。確かに、「ミドルメディア」の中でも、J-CASTニュースなどのように、プロが編集するものについては把握が容易だが、「2ちゃんねるまとめ」のように、匿名の個人が編集する情報については、数が膨大すぎて、コントロールは容易ではない。
■デマや不正確な情報を判別するロジック
コントロールをするだけでなく、自主的に何らかの基準を定めるやり方もありそうだ。国立情報学研究所の生貝直人氏は、第三者機関の活用を説く。
たとえばプレスカウンシル(報道協議会)のように、メディアと市民が参加する第三者機関によって問題を解決することが考えられます。「公正」や「公平」といった概念が実体的に確定できない時は、関係するステイクホルダーが参加して、ちゃんと議論をして、新しいルールを作る。そのための適正な手続きについて合意することが重要なのです。
「ミドルメディア」のプラットフォーム事業者と「まとめ人」となりうる一般ユーザーの間で、何らかの自主的な基準を生み出して、運用ができるのであれば、問題解決を促す1つの方法になるかもしれない。また、制度だけでなく、技術を中心とした対策も考えられそうだ。伊藤氏は新たな仕組みの必要性を主張する。
デマや不正確な情報を機械的に判別する仕組みを作って可視化したり、デマを流す人を減点する一方、正確な情報を流した人を加点するなど、情報の信用性を判定する仕組みができたらいいのではないかと思います。
ある人の情報発信が適切であるかどうかが、判定システムによって、明らかになる。この判定を可視化することができるのであれば、見る側も、判定を踏まえて、情報の真偽を判断することができるようになる。「万人の万人に対する闘争」となったソーシャルメディアで、闘争を助長する動きを押さえ、過ごしやすい空間にするためには、様々な角度からのアプローチが必要になってくるのだろう。(編集:新志有裕)
※「誰もが情報発信者時代」の課題解決策や制度設計を提案する情報ネットワーク法学会の連続討議「ソーシャルメディア社会における情報流通と制度設計」の第2回討議(13年5月開催)を中心に、記事を構成しています。