さてさて
さてさて、やる気のあるうちにどんどん書いていこう。
まず僕たちの大学では、最近卒業論文中間発表となるものが様々な学科で行われていました。
趣旨は、卒研の進捗状況や、これからの進め方について、他の研究室の教授やらがあーだこーだ言って途中経過を審査するって感じのやつですね。
まー、その教授たちからの助言は結構きついきつい。笑
ちょっと、話はそれてちょいと前の僕の研究室選びについて書いていきますね。
僕の研究室は、統計の研究室でまじで統計。って感じです。
ゆえに因子分析だとか様々な、基本的な統計手法を用いて因果関係を探ったりするわけですよ。
まあ、もともとそういう原因を探るっていうのは嫌いなことじゃないから、この研究室に入ったわけですが、この研究室に入った目的は、もう一つありました。
それは、「ビッグデータを扱う!!!」
っていう、機械学習やら深層学習やらそっち系のことに少しでも詳しければ、鼻で笑ってしまいそうな感じの志望理由。笑
まああの時の僕は若かった。
しかし、なぜ「まじ統計」っていう研究室なのに、ビッグデータ扱えんの?っていう疑問に思ってる人がいると思います。当然ですよね。
まあ大人の事情なるものとかがあんのかな。
ここからはあくまでも個人的意見として聞いていただきたいのですが、
理工系大学ではおそらく教授たちも生き残るのって大変なんでしょう。社会に求められている研究をやっていかないと科研費とかがもらえないとかいろいろあるんでしょうね。
それで現在所属している研究室では、今年からトレンドに乗りビッグデータなるものを扱っていこうってなってました。当初までは!!←
まあ物事ははじめが肝心、そしてくっそ大変と言われますが、
その通り
いざ、扱うとなればくそ大変。
コードもろくに書けなかった僕に、数々の難題が降ってきました。
あの時の僕がどれくらい、コードをかけないかというとRでcsvファイルを読み込むこともググらないとできないていう具合です。(なんでそんなんもできないのにビッグデータとか言ってたんだろうと恥ずかしながら思います。笑)
扱ったデータはPOSデータだったんですが、データの加工、つまり前処理が大変。
ビッグデータって名前はすげーかっこいいのに、ビッグデータ扱う時の作業の地味さといったらハンパじゃないと思いました。しかし、まあだんだん慣れてきてベイジアンとかを用いて解析結果を出したわけですよ。
さらに、自分の研究のもう一つが、代々研究室で作られてきたシステムビッグデータ対応化!つまり、システムで扱えるデータ量を多くするってことですね。
これはまあそーでもなかった。
そんなこんなで、自分なりに終わらせて中間発表に臨みました。
あー、長くなってきた。
今回は、ここまでにしておいて次回は中間発表についてかな。
まあ中間発表を一言で述べよと言われたら、「ボコされた」かな。
つづく