木幡隆宏
をテンプレートにして作成
[
トップ
] [
新規
|
一覧
|
単語検索
|
最終更新
|
ヘルプ
]
開始行:
*レポートまとめ [#kb948fb6]
**2007/10/19 [#e037fd3e]
Probablistic Linguistics (pp. 1-4)
~Chapter 1 Introduction
-1.1 Probablistic Linguistics
--“Lnguage is categorical.”→近代言語学の考えのひとつ
~performance = fuzzy, gradient, continua
~linguistic competence ≠ fuzzy, gradient, continua
~↓一方で他の考え方もある
~ “Real language can be highly variable, gradient, and r...
~ *gradientイメージ(0か1かではない)
~最近の研究では、言語能力はcategoricalやdiscreteではなく...
~ Generative approachesがgradientな中央部分に関心を持...
~
-1.2 Motivating Probabilities
~“Human cognition is based on probabilistic processing.”...
~
~1.2.1 Variation
--“Language changes over time.”
~聞き手の推測によって言語変化は起こる(Zuaw)
~言語のproduction patternはアイデンティティによって個人間...
~
~1.2.2 Frequency
--Frequencyがlanguage perceptionやproduction、representat...
---頻度の高い語は低い語より速く認識される(Jurafsky)
---頻度の高い語は軟音の変化を引き起こす(Zuraw) ...
-- 研究者はProbability theoryによっては事象の頻度だけで...
**2007/11/30 [#e97c8925]
Probablistic Linguistics (pp. 26-32)
-A Data-Oriented Parsing (DOP) model
--ひとつのbank treeを分解したsubtreeで構成される
--固定されたフレーズ、イディオム・チャンクもとらえられる
--DOP modelはPCFGにも分解できる
--Figure 2.6のふたつのtreeをFigure 2.7の34種類のsubtreeに...
--Figure 2.8:“a node substitution operation”(“○”を使ってs...
--Table 2.5 派生の確率
(1)の確率×(2)の確率×(3)の確率 = 1/20×1/4×1/4 = 1/320
--“spurious ambiguity”:同一のtreeが異なる派生からできる(F...
--DOPは派生とtreeが一対一で一致しない
--派生が多いtreeほどsubtreeも多くなる
~→大きいsubtreeの方がより高い
--DOP modelによって作られるすべての文の可能性の合計は1に...
--Bod (1992) DOP approachの特徴
~(1)文のfragmentを直接文法として使用する
(2) fragmentのサイズに制約を与えない
-DOP modelの疑問
--言語使用者はsentence fragmentを記憶しているのか?
~そうなら、DOP modelが提案するように不定で莫大なfragment...
~A. 言語使用者はsentence fragment を記憶しており、two-wor...
~→文法規則を使用して文を作る必要がなく、聞いたものから作...
~*すべてのfragmentを記憶しているという証拠は無い
--DOP modelsは包括的すぎないか?
~A. Manningの章で扱う
--DOP modelsは限定的すぎないか?context-free languagesの...
~A. Context-free powerはphonologyとmorphologyに関しては十...
終了行:
*レポートまとめ [#kb948fb6]
**2007/10/19 [#e037fd3e]
Probablistic Linguistics (pp. 1-4)
~Chapter 1 Introduction
-1.1 Probablistic Linguistics
--“Lnguage is categorical.”→近代言語学の考えのひとつ
~performance = fuzzy, gradient, continua
~linguistic competence ≠ fuzzy, gradient, continua
~↓一方で他の考え方もある
~ “Real language can be highly variable, gradient, and r...
~ *gradientイメージ(0か1かではない)
~最近の研究では、言語能力はcategoricalやdiscreteではなく...
~ Generative approachesがgradientな中央部分に関心を持...
~
-1.2 Motivating Probabilities
~“Human cognition is based on probabilistic processing.”...
~
~1.2.1 Variation
--“Language changes over time.”
~聞き手の推測によって言語変化は起こる(Zuaw)
~言語のproduction patternはアイデンティティによって個人間...
~
~1.2.2 Frequency
--Frequencyがlanguage perceptionやproduction、representat...
---頻度の高い語は低い語より速く認識される(Jurafsky)
---頻度の高い語は軟音の変化を引き起こす(Zuraw) ...
-- 研究者はProbability theoryによっては事象の頻度だけで...
**2007/11/30 [#e97c8925]
Probablistic Linguistics (pp. 26-32)
-A Data-Oriented Parsing (DOP) model
--ひとつのbank treeを分解したsubtreeで構成される
--固定されたフレーズ、イディオム・チャンクもとらえられる
--DOP modelはPCFGにも分解できる
--Figure 2.6のふたつのtreeをFigure 2.7の34種類のsubtreeに...
--Figure 2.8:“a node substitution operation”(“○”を使ってs...
--Table 2.5 派生の確率
(1)の確率×(2)の確率×(3)の確率 = 1/20×1/4×1/4 = 1/320
--“spurious ambiguity”:同一のtreeが異なる派生からできる(F...
--DOPは派生とtreeが一対一で一致しない
--派生が多いtreeほどsubtreeも多くなる
~→大きいsubtreeの方がより高い
--DOP modelによって作られるすべての文の可能性の合計は1に...
--Bod (1992) DOP approachの特徴
~(1)文のfragmentを直接文法として使用する
(2) fragmentのサイズに制約を与えない
-DOP modelの疑問
--言語使用者はsentence fragmentを記憶しているのか?
~そうなら、DOP modelが提案するように不定で莫大なfragment...
~A. 言語使用者はsentence fragment を記憶しており、two-wor...
~→文法規則を使用して文を作る必要がなく、聞いたものから作...
~*すべてのfragmentを記憶しているという証拠は無い
--DOP modelsは包括的すぎないか?
~A. Manningの章で扱う
--DOP modelsは限定的すぎないか?context-free languagesの...
~A. Context-free powerはphonologyとmorphologyに関しては十...
ページ名: