ユニバーサル・ミュージアムをめざして78
では、どうするのか?-1
三谷 雅純(みたに まさずみ)
元来、さまざまな人が利用する生涯学習施設でも、マルチメディアDAISYは役に立ちそうです。このことは、このひとはくブログにも何度か書きました (1)。
DAISY(Digital Accessible Information System)というのは、コンピュータで使う機械語で作った文章のことです。XHTML (Extensible HyperText Markup Language) と書いた方がよく解るという方も、いるかもしれません。人生の途中で視力を失ったが、習ったことがないので点字がよく解らないという方には、DAISYが福音になりました。また点字は解っても、コンピュータをよく利用するという方には、とても便利です。文字を読むように音声で発音してくれます。そして書籍と同じように文章の途中からでも自由に聞き直せるのです。テープレコーダーが現代風にアレンジされて、コンピュータで扱い易い形になったと言えばよいでしょうか。
DAISYが聴覚以外の感覚、例えば視覚も使えるとしたら、どうでしょう? つまり、読んでいる文章に合わせた絵や写真が流れるのです。これは、コンピュータで表された絵本とか写真集、動画であればテレビや映画の字幕スーパーの感じです。どのようなものか理解できるでしょうか? 流れる文字を機械が声に出して読んでくれて、その上、読んだ文字の色が変わるのです。カラオケ・ボックスで流れる画面の感じと言った方が近いのかもしれません。
絵や写真、動画の入ったDAISYを、特にマルチメディアDAISYと呼びます。マルチメディアDAISYは、視覚に頼らない人はもちろんですが、字がうまく読めない人にも役に立つと分かってからは、学校現場では積極的に取り入れられました。教科書をマルチメディアDAISY図書にすれば、字がうまく読めない多くの子どもが理解しやすくなるのです (2)。今では、マルチメディアDAISY図書を使って認知症など多くの人に分かりやすい図書ができないかと工夫しています (3)。興味の対象になる本のテーマを選びさえすれば、マルチメディアDAISYは一般の人にも理解しやすい形式です (4)。
もちろん、ご自分の頭で考えたり、感じたりするタイプの方は、もうわかっているはずです。視覚で世界を捉えることがない人や、聴覚で世界を捉えることがない人にとって、マルチメディアDAISYに意味はありません。絵や写真は目で見て意味があるのだし、音声は耳で聞いて意味があるのですから。
☆ ☆
ということで、わたしはマルチメディアDAISYが高次脳機能障がい者にも役に立つのではないかと考えて、特に失語症の皆さんに手伝っていただいて視聴覚実験をくり返してきました。
音で聞く。文字を読む。色を反転させてどこを読み上げたかを示す。音を聞く時は、アナウンサーの肉声が録音してあれば、読み方のスピードやニュアンスも伝わります。絵や写真ならば情景を理解しやすいでしょうし、動画であればもっと多くの情報が伝わります。ものを見たり音を聞いたりといった働きは、脳の別べつの場所が担っているとされています。わたしたちは情報を別べつの場所で処理し、理解し、統合して、「美しい花が咲いている」とか「この人は見た目は恐そうだが、やさしい人に違いない」といった高度なことを判断しているのです。
マルチメディアDAISYを科学的に言い直せば、聴覚だけでなく文字情報や絵・写真・動画といった視覚から受け取る情報、複数の感覚から受け取る情報を、脳の中で統合して理解しやすくしているのだということになります。字がうまく読めない人や認知症の人は「脳の多様性」があるのですから、うまく聞き取れない人がいる高次脳機能障がい者も、マルチメディアDAISYなら理解できるのかもしれません。
そう考えて、マルチメディアDAISYを聞いていただいたのです.しかし、結果は予想通りに、とはいきませんでした。
わたしの書いた論文「聞くことに困難のある人がわかりやすい音声:視覚刺激の付加により高次脳機能障がい者の理解は進むか」 (5) に添って見てみましょう。
まず、実験を受けていただいた方の中で、自分は高次脳機能障がいではないと自覚している方――この論文では高次脳機能障がい者が主人公ですので、「高次脳機能障がいではないと自覚している方」を「非障がい者」と呼びました――は、今までよく報告されている (3) ように、絵の入ったものの方が、音声だけで読み上げるよりも、より理解しやすいと答えました。
一般に合成音は聞きづらいものですが、絵の入ったマルチメディアDAISYの形式にすると、肉声と同じように理解しやすいと答える人が多くなります。この結果から、ロボットのような機械の話す合成音でも、充分に理解しやすいと感じるのだと思います。......なぜって、ロボットは存在そのものが絵や写真のように視覚を刺激するのですから。
ところが、高次脳機能障がい者、中でも失語症者では、程度の軽い人も、重い人も、それぞれにマルチメディアDAISYへの反応が非障がい者とは違っていました。
軽度の人びとは、まるでスピーカーから出たすべての言葉を「好き嫌いなく飲み込む」ように理解しました。肉声はもちろん、合成音であっても、まるで気にしていないかのようです。そして文章を表す挿し絵がなくても、「理解できる」という反応は変わらなかったのです。
反対に重度の人は、穏やかな人格で、どのようなことも、充分に理解しているように見えたとしても、文章はまるで分からないようでした。言語音(げんご・おん)が、言葉としては意味のない環境音(かんきょう・おん)と同じように聞こえるのです。中でも、フォルマント合成音と呼ばれる電気的なロボット音が苦手なようでした。もともと人の肉声を切り出して、音のパーツを組み立てるようにして作る波動接続型合成音だと、少しは「ことば」だと認識できるようです。
フォルマント合成音は電気的な合成音ですから、キー操作で入力すれば、それだけで文章から音が出ます。波動接続型合成音では合成法を身に付けないと音は出ません。それでも、操作はそれほど難しくありません。肉声が一番良いのですが、それが無理なら,波動接続型合成を使えば重度の人でも何か喋っていると気が付いて、注意してくれるのかもしれません(ただのノイズにしか聞こえないのかもしれませんが)。
次に続きます。
----------------------------------
(1) 例えば:
「失語症者に助けてもらう−1」
http://www.hitohaku.jp/blog_old/2012/06/post_1556/
「失語症者に助けてもらう−2」
http://www.hitohaku.jp/blog_old/2012/06/post_1563/
「失語症者に助けてもらう−3」
http://www.hitohaku.jp/blog_old/2012/07/post_1564/
「学校の先生といっしょに考えてみた−1」
http://www.hitohaku.jp/blog_old/2012/08/post_1599/
「学校の先生といっしょに考えてみた−2」
http://www.hitohaku.jp/blog_old/2012/08/post_1607/
「ユニバーサルなホームページを考える事」
http://www.hitohaku.jp/blog/2013/03/post_1701/
「人びとを迎えるために-2」
http://www.hitohaku.jp/blog/2014/02/post_1834/
(2) 例えば、金森裕治ほか (2010) 特別支援教育におけるマルチメディアデイジー教科書の導入・活用に関する実践的研究. 大阪教育大学紀要 59: 65-80.
http://150.86.125.91/dspace/bitstream/123456789/25255/1/KJ4_5901_065.pdf
(3) 河村 宏 (2011) デジタル・インクルージョンを支えるDAISYとEPUB. 情報管理 54: 305.315.
https://www.jstage.jst.go.jp/article/johokanri/54/6/54_6_305/_pdf
(4) 三谷雅純 (2013) 生涯学習施設は言葉やコミュニケーションに障がいを持つ人とどう向き合うべきか: 総説. 人と自然 Humans and Nature 24: 33-44.
http://www.hitohaku.jp/publication/r-bulletin/No24_04.pdf
(5) 三谷雅純 (2015) 聞くことに困難のある人がわかりやすい音声:視覚刺激の付加により高次脳機能障がい者の理解は進むか. 人と自然 Humans and Nature 26: 27-35.
http://www.hitohaku.jp/publication/r-bulletin/NO26_004.pdf
三谷 雅純(みたに まさずみ)
兵庫県立大学 自然・環境科学研究所
/人と自然の博物館