専門特殊研究

メニュー

自己紹介


研究計画・進捗状況

目的
日本・中国・韓国・台湾の英語教科書を多次元分析(MD分析)により比較し、それぞれの言語的特徴を掴む

手法(手順)

  1. 分析対象とする言語特徴(e.g. 一人称代名詞、過去形、that節)を決める。可能な限り多く扱うようにするが、因子分析を行うためには言語特徴がテキスト数の1/3から1/10以下でなければいけない。また次元数と各次元に含まれる言語特徴群も、1:5であるべき(Biber, 1985)。先行研究では「3」の不適切なデータの排除を行った後に残ったのが概ね38-67特徴。
  2. それぞれの言語特徴の情報を対象となるテキストに付与する
  3. それらの頻度をテキスト毎に求め、1000語あたりの頻度に標準化する
  4. 適切でないデータの排除
    • 短いテキスト(先行研究では25-200語未満)を除外する
    • あまり見られない言語特徴は除外するか上位概念でまとめる
    • 頻度の推移が他の言語特徴と大きく重なる言語特徴(e.g.名詞と名詞の意味カテゴリー)は除外するか上位概念でまとめる
  5. 因子分析
    1. 言語項目を観測変数として探索的因子分析(最尤法、スクリー基準、斜交回転)を行う
    2. 言語項目を因子に振り分ける。言語項目の因子負荷量の絶対値が0.3以上であれば、その因子に当該言語項目は含まれる。但し複数の因子に対して±0.3以上の負荷量があった場合は、絶対値がより大きい因子に含まれる。いずれの因子に対しても±0.3以上の負荷量がなかった場合は、その言語項目は分析対象から除外される。
    3. 累積寄与率も報告する
  6. それぞれの因子(dimension/次元)に含まれる言語特徴群が最も広く共有する機能又は産出状況という面から次元を解釈する(e.g. informational versus involved production、 online versus offline production)
  7. 次元値(dimension score)
    1. 言語特徴の頻度を平均が0、標準偏差が1になるように標準化する
    2. 各テキストにおいて、各次元に含まれるそれらの値を合計する。負の値も含む。
    3. 各国教科書の平均次元値を算出する
    4. 分散分析により、各国間に言語的な差があるかどうかを見る。有意差の有無だけではなく、r^2値を算出し、実質的な差を見る。→A
  8. (必要であれば)クラスター分析
    1. 次元をpredictorとしてクラスター分析を行い、言語的に似ているテキストをまとめる
    2. 意味のあるクラスターを解釈する→B
  9. AとBから教科書文を多面的に対照・比較する

現在取り組んでいること・しなければならないこと

  1. Literature Reviewを書く(→7/31:一応書くには書いた)
  2. 各国の教科書をpassage単位に分割し、話し言葉/書き言葉にわける(→8/18:二週間ほどかけて日本の中学以外は終了。8月末にNCとSSが、9/20にNHが終了。9/17-9/25:それを元に分割し直し×3回。データ数が多すぎると観測値がゼロの割合が高くなってしまい、少なすぎると因子分析ができないため。1テキスト2000語で落ち着く)
  3. それをtreetaggerにかける(→8/18:同日終了。perlからsystem関数でbatファイルを実行すれば良い。)
  4. Perlで言語項目の頻度カウントを行うプログラムを書き直す/以前書いたものを修正する(→8/24終了)
  5. 日本の中学校の教科書をデータ化してタグ付け(→8/29:NHを除いて終了。NHも9/20に終了)
  6. methodologyを書く(→9/26:一部未完だが、一応終了)
  7. データをSketchEngine?にアップする

既読文献

探している論文・書籍

以下は2007年度前期集中講義の課題として書いた、当時の研究計画です。現在の研究計画とは大幅に異なっています。


以前の研究計画

目的

・ESL環境で使用される英語の教科書とEFL環境で使用される教科書を比較し、語彙的・表現的側面での差異を明らかにする。
・EFL環境の国や地域の文化面などでの差異や特性が、どのように英語の教科書、特にその本文に反映されているかを語彙的・表現的側面から明らかにする。

仮説

1. EFL環境では授業時間の制約から新出語彙を短い文章の中で多く扱わなければならないため、EFL環境での教科書はあるメッセージを伝えるためにESL環境での教科書と比較して難易度の高い語を用いる傾向にあるのではないか。
2. 上記と関連し、学校教育で扱われる英文の総量が多ければ多いほど、英文の密度は薄くなり、ある語彙が熟語表現などで複数回教科書に現れる確率が高くなるのではないか。
3. 自国文化の表現も英語教育の一つの目的であろうから、英語圏の文化と異なる文化を有する国々であればあるほど、その国々固有の語彙等が教科書に占める割合が高くなるのではないか。

コーパス

基本的には各国の教科書の本文を集めたDIYコーパスとなる。教科書コーパスはほかにも多数作成されているようなので、それらが手に入るようであればそれらも活用したい。

研究方法

1. 各国の英語の教科書を集め、その本文を電子化する。その際に各国の英語教科書本文の総語数をカウントし、国単位でランク付けする。
2. AntConc?のKeyword List機能やそれに準ずるコンコーダンサーを用い、
(a) 一般的なESLvs一般的なEFLでそれぞれに高頻度な語を調べる。その際に特定のESLやEFLの地域の色が強くならないように、各国から抽出する英文の量は一定に決めておく。
(b) 一般的なESL+一般的なEFLvs個別のEFLでそれぞれに高頻度な語を調べる。前者ではやはり各国から抽出する英文の量は一定に決めておく。
3. 高頻度語の理由を調べる。AntConc?のCluster機能等を用いて、それらの語が特定の表現内で高頻度に用いられているのかどうかを調べる。

データ分析

上記の3において、もしある語が特定の表現の中で高頻度に用いられているようであれば、その表現は当該国の文化等に関係することか否かを検討する。もしある語が高頻度で現れているものの特定の表現の中ではない場合や、上記で当該国の文化等とは関係がない表現である場合は、当該国と総語数ランキングとの関係性を見る。

予想される結果

(仮説1に関して)
「仮説」に記したことと重なるが、ESL環境では基礎的語彙の頻度が高いのではないだろうか。一方、EFL環境の総語数が少ない国や地域では他の国や地域と比較して高頻度と呼べる語は少ないのではないだろうか。ESL環境でのEFL環境と比較した時の高頻度語とその逆では、前者の方がAntConc?で言うところのkeynessの値が大きいのではないだろうか。

(仮説2に関して)
やはり「仮説」と重なるが、EFL環境の教科書は総語数が多ければ多いほど、ESL環境の教科書と語彙的特徴が似てくるのではないか。

(仮説3に関して)
イスラム圏など英語圏とは大きく異なる文化を持つ国々の教科書は、それらの文化を反映するような語句が多く含まれているのではないか。

教育的示唆

以上を通して日本の英語教科書を見た場合、教科書という面からの世界の中での位置がわかる。典型的なEFL環境での教科書ではないかと予想するが、そこから他国の英語教科書と比較することにより、日本の英語の教科書に何が足らないか、どうすれば改善出来るかが見えてくる可能性が高いのではないだろうか。


トップ   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS