みなさん、こんにちは!
今日は、将来の英語力の必要性についてお話をしたいと思います。
海外旅行や道端で外国人の方に会った時、携帯の翻訳機を使ってコミュニケーションをとったことはありませんか?
以前は、「全然日本語で言ったことと、違う英訳がされている」なんて感じたとこも多々あったかと思いますが、最近の自動翻訳は本当に進歩してきたと思います。 実は、私もよく仕事で自動翻訳機を使います。簡単な内容であれば、概ね満足のいく翻訳ができていると思います。難しい論文などになると、意味が変わってしまったり、言葉のチョイスが不自然だったりしますが、前よりはだいぶ良くなったなと感じています。
今後、ますますAIが発達し、翻訳の技術もどんどん進化していくでしょう。きっと皆さんも同じように感じていらっしゃると思います。
「もしかすると翻訳機があるから、英語が自分の力で話せなくても大丈夫なんじゃないの?」なんて思われるかもしれません。
まあ大体のことは、それで通用するかもしれませんね。私も海外旅行に行って、道順を聞くくらいには全く問題なく使えると感じています。
でも、言葉って、そんなに単純なものでしょうか?
日本語を話していて、選ぶ言葉や声のトーンで、その人の印象が変わることってありませんか?
実は、言語の7割が「非言語」で作られているって、知っていましたか?
どういうことかというと、言語を話す際、発した「言葉」だけで人に伝えているわけではなく、話す時の表情やジェスチャー、声のトーン、イントネーション、声の大きさが7割を占めるわけです。
例えば、ある人が嬉しそうにこう言っているところを想像してください。
「この間、10年ぶりに動物園に行ったんだ〜!パンダの赤ちゃんがいて、その動く姿がすごく可愛くて!見入っちゃった!!」
きっと楽しそうな表情で、その時感じたワクワク感が伝わってくるような声のトーンで話をしていたかもしれませんね。
でもこれから、「非言語」部分を取り除いて、棒読みで読んでみてください。
全然違う印象になりませんか?
顔の表情がないので、怒っているのか悲しいのかわかりませんよね。声のトーンもわからないので、どういった感情なのかもわかりませんよね。このように普段喋っている言葉を棒読みにしてみると、言葉があまり意味を持たなくなると感じるのではないでしょうか?だからコンピューターが自動で話すことがスッと頭に入ってこないのかもしれませんね。そのようなご経験、ありませんか?
これに加え、自動翻訳だと、日本語から英語(多言語)に直した時、本当に自分が意図して使った単語に変換されているか、確かではないです。同じ単語なんだけど、若干ニュアンスが違うということは、日本語にもたくさんありますよね。そういったちょっとしたニュアンスの違いを翻訳機が完璧に読み取って伝えてくれるでしょうか?
「英語を話せる」ということは、ただ言葉を伝えるだけではなく、話す人のバックグラウンドや性格、感情など言葉では表せない部分がとても重要になります。こうなるとどんなに翻訳機が発達しても、やはり言葉を自由に操れるのは、人間だけだということです。
何よりも時間をたくさんかけて学んだ言語をその国の人たちに披露する時、伝われば嬉しいし、楽しくなりますよね。逆に、外国の方が日本語で一生懸命話をしてくれたら、日本語を勉強してくれたんだと嬉しい気持ちになりませんか?これは、どの国の人たちも同じだと思います。お互いに英語が第二言語でも、英語で話ができた時は、本当に嬉しいですし、楽しいです。
「翻訳機が代用してくれる」と思わずに、自分の言葉で表現できるように英語を使っていきませんか?
今回のポイント
・言語の7割は、声のトーン、ジェスチャー、表情、イントネーションなど非言語でできている
・人の話す言葉を機械が完璧に翻訳できるわけではない
・自分が言いたいことは、自分が発する言葉にある
この記事へのコメントはありません。