Facebookの「自動代替テキスト」機能は約2億8500万人のSNS利用形態を変える!? 

tag:


4日、Facebookは「自動代替テキスト機能」の追加を発表しました。現時点ではiOS版のみ。また対象地域はアメリカ、イギリス、カナダ、オーストラリアで、対応言語は英語のみ。しかしながら今後対応プラットフォーム、言語、地域を順次拡大していく予定。

 

Under the hood: Building accessibility tools for the visually impaired on Facebook | https://code.facebook.com/posts/457605107772545

Facebook just launched a feature that will revolutionize the way millions of people experience the social network | http://www.businessinsider.com/facebook-automatic-alternative-text-new-feature-2016-4

2016-04-05_1413

 

なぜ自動代替テキスト?

Facebook、Instagram、Messenger、WhatsAppなどを利用して20億もの画像が日々共有されています。同社とコーネル大学との共同研究の結果、視覚障碍者もソーシャルメディア上の視覚コンテンツには興味があるものの画像や動画中心のコミュニケーションに参加できず、いらだちや疎外感、孤立感をしばしば感じていることが明らかになりました。また視覚障碍者の画像理解を手助けするツールは既に存在していますが、実際は友人やボランティアに写真の説明をしてもらっている人が大半のようです。そこで、「視覚障碍者も他のFacebookユーザーとほぼ同じ速度感で画像を楽しめるように」という理念の下、自動代替テキストが開発されました。

なお、代替テキストはワールド・ワイド・ウェブ・コンソーシアム(W3C)スタンダードに含まれているので、どのスクリーンリーダーでもカーソルを画像上へ動かすだけでテキストが読み上げられます。iOS端末の設定内にある「VoiceOver」機能(Apple社製のスクリーン読み取りソフトウェア)を有効にしFacebookのニュースフィード上をスクロール。画像上をスワイプすると、代替テキストが読み上げられます。

 

 

実際は?

2016-04-06_1311

 

例えば上記画像について、「Image may contain: two people, smiling, sunglasses, sky, outdoor, water」というテキストが読み上げられます。文頭の「Image may contain:」は「この画像には以下のものが含まれている可能性があります。」という意味で、現段階の技術では代替テキストの情報が100%確実ではないことをユーザーに伝えるために表示されています。

開発期間はおよそ10カ月。最も困難だったことは、画像についてできるだけ詳しい情報を提供しながらも、いかにしてその情報の質を保ちまた社会的知性を踏まえた内容にするか、そのバランスを調整することだったそうです。

調査研究を重ねた結果、不自然さのない描写にするために各画像の構成要素を「人、物体、シーン(状況)」の3カテゴリーに分類し、その順に表示することに決定。具体的には、まず写っている人数と表情(笑顔かどうか)、次に物体(検知アルゴリズムの確実性の高い順に列挙)、そして状況(例えば、屋内、屋外、セルフィー等の情報)という情報を列挙します。

Facebookのアクセシビリティチームの1人Matt Kingさんは「今回の新機能はまだ開発途中であり、今後より包括的なプラットフォームを構築し、よりよい世界の構築を目指す」と明言しています。

2016-04-06_1428

Facebookアクセシビリティチームメンバー。左の男性がMatt Kingさん。Mattさんは重度視覚障碍者。

 

 

 

 

 

 

 


Comments are closed.