[to index]
[1]2016/09/19:起案
[2]データ整理で、万歩(manpo)データ[/walking]が出てきた。廃棄する前に一考。
[3]月平均の傾向を探るか、、、その後、対象月のデータから、翌月の平均は予測できるかを想起し、何ヶ月のデータを手作業で処理し、現在に至る。
[4]現時点の結論では、可能な模様、、、。温度データにも適用可能か?楽しそう!
[5]処理方法は、対象月の平均値(a)を基準に、翌月の平均値(b)が、(a)からどのくらい偏移しているかを、P322と類似の考え方の処理を適用して得ること。
===
[6]処理の大まかな流れは、
[a]各データ数を同数とした方がよいかなとの考えから、4週単位で1ヶ月として扱う。
[b]欠損データ(電池切れ、ゼロ)は除外する。->欠損データを前後のデータで補正する考えもあったが、平均値で近似しても、除外しても同じなので、除外するを採用。
[c]処理前段階として、データを昇順でソート。
[d]さらに、P322では、[Border:10^3]の項は、(10^3)であったが、max(order上)、max(order下)の値が、以下の値に最接近するように、(10^n)で(n)を調整した。
[d-1案]max(order)以上。※4週で、7日*4=28日なので、約14の前後になる。
[d-2案]30以上。※試行錯誤で、この値。こじつければ、データ数が少ないと予測難しい?/or/(7日*4=28日)に近いもの?、、、根拠薄弱、、、
---
[e][d-2案]を採用。
[f]平均値(a)を基準に、P322のデータ処理を行う。
[g]一元配置分散分析(anova)から、一旦離れる。
[h]最終処理は、The Plimpton 322 Collection (2-2-L6): P322(6) Detail の流れで、
同ページ後半の{(2016/10/04, added), [another approach]}以降を採用した。
※細かな処理は、全く同一ではない。若干version-up?している、、、
---
[i] [h]の各odrで、最終段階の判定は熟考していない。但し、ゴールには接近している感じはする、、、
判定パターンは、{(OK(L),U/D), (OK(L),U), (OK(L),D), (OK(S),U/D), (OK(S),U), (OK(S),D)}.※これらのwhich(one)を選択する条件は何か?
---
TODO)詳細処理は、apply(1)以降で示す予定、、、
end.
0 件のコメント:
コメントを投稿