私は、基本的に言語以外のコミュニケーション(身振り、手振り)で、多くの国で何とかしてきました。
もちろん、ビジネスでは通用しませんが、旅行程度であれば、世界中どこでもなんとかしてみせる ―― という、漠然とした自信があります。
ですので、私は、言語に関しては「語彙」を重視する立場で、「発音」など本当にどうでもよいと思っていました。
しかし、先日のNHKのラジオ英会話番組で、私のこの考え方を根本から破壊しかねない事例が紹介されていました。
―― 英語のコミュニケーションの相手は、「人間」ではなく「機械」になる
-----
確かに、覚えがあります。
米国赴任中、電話をつかって予約をしようとしたとき、電話自動応答システムが対応してきて、色々と質問をしてきました。
『あんたは、何をしたいんだ。次の1~5の中から選べ』
と、まあ、この程度はよいのですが、
『どの空港から、どの空港へ、何日の何時の飛行機に乗りたいのか』
との、問いに対する自動音声システムは、ほぼ100%、
『ごめん。わかんない。もう一度言ってくれないかな(I am sorry, I don't understand what you said. Would you please try it again?) 』
と、の応答してくる。
で、同じ質問を三回された挙句、"Sorry, See you again" と言われて、一方的に電話を切られる。
そして、電話の受話器を持ちながら、呆然と立ちすくむ私がいる、と。
-----
相手は自動音声システムですから、身振り手振りが通じないのは当然として、聞き返し(Pardon?,Sorry?) や、「私は、あの有名な日本人なんだ(I am a Japanese, you know well)」が、通じない。
これは辛い。
これは、いわゆる私が主張してきた、「江端メソッド」を根底から破壊されかねないトレンドと言えましょう。
-----
私は、以前、寄稿コラムで、「日本の製造メーカーですら、日本語のマニュアルを作らなくなった」というお話をしました。
このような潮流が、自動音声システムにまで拡張しないと、誰が断定できるでしょうか。
コールセンタの無人化は、経費削減の観点から、絶対に止まりようがありません。これは、システムのエンジニアとして断言します。
そして、多言語対応なんぞ論外。対応言語を一元化したいと思うのは当然のことです。
TPP等によって、生保、医療、その他の分野のサービスが日本への流入してくることは確定でしょう。
日本語対応するが莫大な経費がかかる企業が勝つか、日本語対応しないが安価なサービスを提供できる企業が勝つか、今の段階では断言できません。
-----
我々には2つの道があります。
A:徹底的に英語の、特に発音に関する教育を徹底的に「破壊」して、機械とのコミュニケーションの芽を今のうちに手折る、という戦略。
B:機会とのコミュニケーションを前提に、発音を最重視する英語学習にシフトする戦略
私としては、どっちの対応も嫌です。
私の第三の戦略は、「C:このようなトレンドが、あと10年来ないことをひたすら祈り続ける」です。