京都大学ELCAS(エルキャス)

実施レポート

[基盤コース後期]物理コンピューティングによるインタラクション技術

情報学研究科 知能情報学専攻 会話情報学分野

2018年2月3日

  • 実施場所

    吉田キャンパス 総合研究7号棟2F

  • 当日の講師

    中澤 篤志 准教授 (西田・中澤研究室)

  • チューター

    北角 一哲、松田 貴大、植野 峻也

  • 実習の内容

    3グループについて課題の作成の続き、ビデオ撮影およびスライドの準備を行った。まず、スライドの構成についての説明を行い、グループ内で役割分担や構成について話し合った。その後、課題の調整およびビデオ撮影を行い、成果物の相互評価を行った。最後に、スライドの制作を行った。

  • 実習の様子1
  • 実習の様子2
  • 実習の様子3

活動を通して学んだこと

  • まずはまだ残っていた不具合をある程度解消し、そして発表に使う動画を撮影後、パワポの構成について話し合った。 不具合の解消については、これまで残っていた不具合というだけあって、なかなか手強く、全部解消できたわけではない。具体的には、LEDを光らせる際の不具合は解消でき、更に少し機能の付け足しもできたのだが、脈拍の値に応じてドクンというような音を出すのはなかなかうまくいかなかった。これにはそもそも脈拍をとってきた時点であまりきれいな数字(グラフ)ではない可能性が考えられる。 動画の撮影では、私たちは4人でやるゲームを作っているのだが、その4人は周りの人も巻き込んで遊んでもらったりもした。みんななかなか楽しんでくれたらしく、また、見た目がきれいだとも言われ、嬉しかった。この動画をあとでうまく編集して、このゲームでは一体どんなときに何をしているのかをきちんと説明できるようにしたく思う。 最後にパワポの構成であるが、これは読んで字のごとく、ここではこの説明をこれくらい、といった内容を話し合った。また、パワポを分担してつくる際のどちらがどこをやるかの割り振りもした。かなり深くまで話せたのは良かった。しかし、その最中にふとパワポは2/7であるとの話を聞き、ただでさえ私も相手も忙しい中で、これは大変なことであると認識した。分担を決めたのは勿論のこと、この日にまたパワポについて話し合おうなどといったスケジュール合わせまで行った。 余談ではあるが、私が中1から学校の内部でずっとやっているものづくり団体で、外部の人を積極的に勧誘するという方針が最近定まり、その第一例として一緒にELCASで作っているペアにこの話をしたら大変に興味を持ってくれ、嬉しかった。とりあえずはELCASを優先でやるが、これが一段落したら本格的に考えるとのことであった。物理的に遠いところの人とどのように一緒に活動するのが良いのかは前述の通りわからないところも多いのだが、それでも、今回ELCASを通じてそのような体験ができたことは、今後の団体での活動にも大いに役にたちそうである。
  • クォータニオンという虚数を三つ、実数を一つ考えて行列化することにより、3D回転を演算するための概念、そして、当たり判定のため、3次元空間での点と直線の距離についてご指導いただいました。そして当たれば再度、敵を出現させるというプログラムを作成しました。そこでプログラミング時に柔軟に考えることの重要さに気づかされました。
  • 作品を完成させた。脈拍にあわせて音を出す機能も実装したかったが、時間がかかり想定している挙動も実現できなかった。また発表会のためのパワーポイントの大枠を二人で確認した。

2018年1月20日

  • 実施場所

    吉田キャンパス 総合研究7号棟2F

  • 当日の講師

    中澤 篤志 准教授

  • チューター

    北角 一哲、松田 貴大、植野 峻也

  • 実習の内容

    3グループについて課題の作成を行った。まず、チューターが内容をレビューし、今後の進め方について協議した。その後グループに分かれて課題の制作を行った。また、環境を変えることでの動作の確認、実際の動作確認、資材の調達などを行い、調整した。その後、次回からの予定について確認を行った。

  • 実習の様子1
  • 実習の様子2

活動を通して学んだこと

  • 作品の完成に向けて、ハードウェアの方を組んだり、センサーの挙動を確認するテストプログラムを作った。またテストプログラムの内容を本番用のプログラムに利用し、その上でデバッグを行ってプログラム単体ではうまく動くのを確認した。
  • 家で辛うじて試作ができた製作物と、届いた部品のお陰でペアのどちらもずっとそれぞれ作業ができた。試作したものについては、圧力センサを使った重さ検知で、4つのセンサをどうつなぐかの実験を前回にやったので、その結果を踏まえて試作として配線したものを今回持っていった。そして今回、相手はそれを使って重さの閾値調整であったり、プログラムを作ったりをしていた。また、今回で脈拍センサやアクチュエータ(ソレノイド)が届いたので、私は前回作りかけであった脈拍数を計測するプログラムを仕上げ、そしてソレノイドを実際に機体に取り付けるところまでできた。機体に取り付けるとどうもこれまでの予想とはうまくいかないところもあったが、それも臨機応変に対応し、時にはペアで話し合い、解消できた。また、余った時間でLEDの動作確認をとったり、相手が作っていたプログラムの解読(自分で書いたプログラム以外は基本的に暗号同然)をしたりできた。今回学んだのはこのような準備の大切さであったり、又、ちょっと行き詰まったときは相手の考えも聴きながらやっていくと楽しいし案外すぐに解決することもよくあるといったことである。 今後はもう時間がないので、家で各自開発をし、互いに連絡を取り合って共同開発を急ピッチで進めていくことになると思われる。ハードウェアは私のもとにあるので、相手は自分のプログラムの挙動が見えないだろうと思うので、skypeなどのテレビ電話も必要に応じて使いながら確認を取り合う予定である。
  • まず、ブロック崩しにブロックを付け加えた。30分ほどでさっと実装できたので嬉しかった。 そして、グループのもう1人が組んだプログラムの改良などを行った。人が棒を持ってそれを動かし、その両端の動きをカメラで読み取るプログラムである。両端に目立つ色のついた目印をつけてそれを認識させようと考えていたが、周りの明るさなどに左右されてうまく動かない様子だったので、代わりにLED電球を暗い中で光らせてそれを認識させることにした。 窓の向こうが明るすぎたり、光が壁に反射したり、遠いと認識できなかったりして、様々に試行錯誤を行ったが、結局周囲の十分な暗さとLEDの十分な明るさがあればうまく認識できる、という結論に至った。 ブロック崩し側も、かろうじてゲームと言えそうな内容にはなっているが、もう少しゲームとして面白くなるような要素を付け加えられるのではないか、というふうに考えた。
  • ブロック崩しで、棒にしっかり球が跳ね返るような実装ができた。棒が傾くという少し変わった仕様になっているのだが、これに球が跳ね返るとき、以前は入射角・反射角を考えるという実装だったのに対し、今回はベクトルの演算をすることによって実装できた。高速化に加えて、プログラムが簡素になった。
  • 次回の発表の制作のために今回は結構作業を進めれたと思います。しかし、作品にハードウェアの方を入れることができませんでした。

2018年1月6日

  • 実施場所

    吉田キャンパス 総合研究7号棟2F

  • 当日の講師

    中澤 篤志 准教授

  • チューター

    北角 一哲、松田 貴大、植野 峻也

  • 実習の内容

    3グループについて課題の作成を行った。新規センサなどを導入し、動作パターンの検証を行った。また、画像処理アルゴリズムの安定性や生体センサ導入について打ち合わせ、拡張機能の実装を始めた。

  • 実習の様子1
  • 実習の様子2

活動を通して学んだこと

  • 実習の日に必要な部品が一部届いていたので、実験などを進められた。色々やることがあったので、二人で分担してやった。具体的には、私はフォトリフレクタで脈拍をとる手法と、脈拍が何回打ったのか数えるプログラムを書いていたし、相手は重さセンサとして使う圧力センサの動作確認などをした。私も相手もすこぶるうまくいったわけではなかったが、それぞれ作業を進め、進捗はあった。今回学んだことは、やるべきことが沢山ある場合は、分担して個々にやると良い場合もあるということである。特に今回のように、複雑怪奇というよりは単純明快な作業の場合は、つまりは協力する必要がそこまでない場合は、個人で作業したほうが良い場合もあるということである。勿論行き詰まったときは相手にアドバイスを求めることもあるし、進捗の報告もするが、協力してやるべきなのは応用編、つまりこのあと、もっと深いところまで開発をしていく場合がメインだと思った。これはつまり、それぞれが家で基本的な開発は進められ、実習で直接会ったときに複雑なことを、意思疎通をしながら進められるということである。次までには自分のできることはできるだけ沢山やって起きたい。 そしてもう一つ、本質とは離れるが、このような環境では自分の知らなかった情報を色々収集できるということである。例えば今日実習前、情報オリンピックの話が上がった、うちの学校からも二人出て予選落ちしていたが、聞いた話によると、情報オリンピックは途中点が命だったり、最初の3問でどれだけ取れるかで決まる、などの有用かもしれない情報を手に入れられた。このような情報はもしかしたら役に立つかもしれない。今後も仕入れていこうと思う。
  • まず美濃研究室で画像認識を用いた技術について話を伺った。台所に設置されたセンサーから料理を効率よくサポートするシステム、人工衛星で観測され海水温の画像から雲などで隠れた部分を修復する手法、海水温から効率の良い漁業をサポートする方法について聞くことができた。ある画像をさまざまな画像の合成として捉えるやり方や、海水温と漁獲の関係を量ではなく確率分布として捉えるやり方など面白い考え方をたくさん学ぶことができた。
  • 最初の一時間程度は、学術情報メディアセンターで飯山准教授にそこで行われている研究についての説明を受けました。映像解析技術によって料理や漁をサポートするといった研究について聞き、こんな物理コンピューティングもあるんだなぁ、と思いました。その後はまたグループになって、課題制作を行いました。そこでは丁寧にプログラミングすることの重要性を再確認できたと思います。
  • 最初に聞いた画像の処理の話で、キッチンで料理をする手助けをしてくれるというものはすごく画期的で将来とても役に立ちそうだなと思いました。また、大学の研究にはとてもたくさんのお金が使われているんだなとびっくりしました。地下には、普通のテレビや動画を撮影するようなスタジオがあってそれが一番びっくりしました。
  • 前半では、飯山先生の研究室を見学した。こちらの操作を手助けするキッチンはとても夢があって楽しそうだと思った。1000万のキッチンを見たのは初めてだった。 後半、ブロック崩しの製作を進めた。球と棒の衝突判定をやや複雑な数学を用いて実装していたのだが、少し不具合があり、それをどう修正するか考えていた。しかし、今回の発表に向けては、その辺りの実装を厳密にすることよりもゲームの内容を充実させることを優先させるべきだということに気づかせられた。実装の進捗という観点からはあまり進まなかったが、学んだことは大きかった。
  • ブロック崩しの製作を進められた。画面を飛び回る球とそれを跳ね返す棒を実装して、今回のELCASに臨むことができた。

2017年12月9日

  • 実施場所

    吉田キャンパス 総合研究7号棟2F

  • 当日の講師

    中澤 篤志 准教授

  • チューター

    北角 一哲、松田 貴大、三鼓 悠

  • 実習の内容

    前回テーマの決まった2グループについては,課題の作成を行った.1つは画像認識を使ったインタラクティブゲームであり,もう一方は,外界反応に対してアクションをするデバイスであり,アイデアの詳細化および実装を行った.テーマの決まっていなかった3名中出席できた2名については,KJ法などを通したディスカッションを行いテーマぎめを行った.

  • 実習中の様子1
  • 実習中の様子2

活動を通して学んだこと

  • 主に、自分たちの作るものについて詳しく考えることがメインだった。どんなセンサーや部品が必要になるかを話しあい、次の活動までどこまで考えておくかを決めた。どのようなプログラムの流れになるかを簡単なフローチャートで考えて、今分かる範囲でできる簡単なプログラムを作成した。また休みが長いので効率的な連絡方法を決めた。
  • 各ペアで作りたいものの仕様を細かいところまで決めていった。その中で私達は「仕様を決定する」ことと、「ソフトを少し作ってみる」の2つのことをやった。 まず「仕様を決定する」ことであるが、これはそれまでにも少し相手と話していたので、かなりすんなりと決まった。私たちは「コイン乗せゲーム」をつくるのだが、今回、1、載せた重さが重いほどよい 2、重さが閾値を超えると載せる皿が吹っ飛んでその人はゲームオーバー 3、脈拍を計っていて、それに応じて閾値が少し変動する 4、PCと連携して、PCには重さと脈拍などを視覚的に表現する 5、LEDが脈拍に合わせて点滅して派手 などの仕様を決定した。前回のうちに概要は固めて、その後lineで仕様について少しだけ話しをしていたことで、とてもスムーズに決まった。事前に何か少しでも話しをすることは大事なのだと実感した。 仕様を固める間、周りにあるものでハードウェアの試作も少ししてみた。仕様とその試作品を比べつつ。買いたいパーツをリスト化していった。リストを相手とも共有したいので、メモなどのリストをプロジェクトで一括管理できるtrelloというシステムを使い、二人で共有できるようにした。こういう便利なものは複雑化しすぎない程度には使っていくべきだと思う。こういったシステムのお陰で、しばらく直接会って話すことは困難ではあるが、お互いに考えていることを共有できる。 後半、「ソフトを少し作ってみる」ということをした。前述の通りハードウェアは部品が足りないので完璧には作れないので、その場で何もなくても作れるソフトウェアを作ってみた。まずは圧力センサー(重さを測る)の最適な回路を探した。とりあえずつくった試作のハードウェアを使いつつ、最適な回路を見つけた。そして次に、Arduino(マイコン)とProcessing(PC側で表示できたりする)の連携を試みた。だが、そう簡単には行かなかった。ネットから私はプログラムを引っ張ってきて実験したのだがどうもうまくいかず、ペアは本を読んでそれについて勉強していた。結局、ペアがちゃんと動くものを作った。私は基本的に「ググる→コピペ→プログラムをいじる」というような開発をするのだが、今回は本を読む方が簡単であったらしい。本を使うという開発形態も有用なのだと思った。今後は本もちゃんと使える人になりたいと思った。 これで年内のELCASは終わりなので、あとはこの仕様に沿って主にソフトウェアを共同で作っていきたいと思う。次の回ではすぐにハードウェアを作ってソフトを実装できるくらいにできたら理想だと思う。あまり時間がないので、ある程度急ぎつつやりたい。
  • センサーで読み取った加速度の情報からオブジェクトの傾きや前後の動きが計算できることを初めて知った。ペアが決まっていよいよ作品作りが始まったので、アイデアをたくさん出しながら形にしていきたい。
  • 今回の活動を通して、まずグループ学習について学んだ。各々が考えてきたアイデアについて話し合い、課題をどうするか決めることはとても良いと感じた。その後の課題制作では加速度センサから読み取れる情報やprocessingで3Dを表現する方法について学んだ。もちろん前述の通り、技術的なことも学んだが、それよりもグループですることの重要性について学べたのではないかと思う。これらが今回、私が学んだ内容である。
  • 最後の発表会の時に発表する作品の製作に入った。グループ(2人)を組んだもう1人と仕事を分担して取り組んだ。ゲームを作るという経験は初めてで、何から手をつけたらいいのかわからなかったが、まず全体をどういう部品に分割するのかということを考え、それを頭に入れた状態でその部品の製作に入った。「どのようなゲームになれば面白いのか」ということを常に考えながら取り組むのが重要だと感じた。この日は、ゲームの中に出てくる主要な動きのうち2つを実装することができた。今まで扱ったことのない数学を使ったので、少し楽しかった。

2017年12月2日

  • 実施場所

    吉田キャンパス 総合研究7号棟2F

  • 当日の講師

    中澤 篤志 准教授

  • チューター

    北角 一哲、松田 貴大、三鼓 悠

  • 実習の内容

    音声メディア研究室(吉井講師)により、最新の音声メディア技術や音楽情報処理技術についての講義を受けた。その後セミナー会場に移動し、KJ法による議論の進め方の講義、その後KJ法を用いて作成する成果物について議論を進めた。4名の出席者が2グループを編成し、成果物の内容や設計の進め方について計画を立てた。

  • 音声メディア研究室見学
  • KJ法による成果物に対するディスカッション

活動を通して学んだこと

  • まず、音声の分析を行う研究室の説明を聞きに行き、その後、作りたいものについてブレーンストーミングし、何を作るか決めると同時にチームを決めた。 前半の説明であるが、ものすごく興味を持った。音声分析についてであるが、「聖徳太子ロボット」という、同時に10人の声を聞かされてもそれぞれがなんて言ったかわかる、というシステムは、すごいと感じた。 そしてその後、「音楽を聞かされたときに、ボーカルと伴奏分ける」や、「メイン音声と雑音を分ける」といった技術についての説明もあった。こちらがすごく気になった。処理された結果を聴くと、かなり良い精度で分別されていて、とてもすごかった。原理は機械学習の深層学習、ニューラルネットワークという、私が今自分でやっている研究で出て来るおなじみの用語であったが、やっていることが結構違うと感じた。機械学習はこのようなところでこれほどの力を発揮するのだとわかった。これからの研究に役立てたいと思った。 少し本質とは離れるが、教授についてもとても共感したり、なるほどと納得したりしたことが幾つかあった。まず、「研究者はAIなんて言わない」ということ。”AI”は人工知能であるが、実際今はそんな大層な名前がつくほどの段階まではいっていない、むしろ”人工無能”だ、というのは、自分が機械学習をやっているのもあって、すごく共感した。人工無能の意味も知っていたので、正にその通りだと思った。そして、「まだIEでしか動かないシステムが有る」ということも。IEはwindowsにデフォルトでついてくるブラウザなのだが、これが本当に曲者で、なにかウェブアプリをつくるときはIEに合わせるのが一番たいへんとも言われる。そしてそんなIEがwindowsにデフォルトでついてくるものだからユーザーが多くて困るし、なにしろIEにしか対応していないといった事態も多々あるのに非常に苛立つのは私もそうであるし、やはり同じことを思う人は居るのだ、と、学んだし、そしてとても嬉しかった。 後半、ブレーンストーミングであるが、これまでブレーンストーミングは何回かやったことがあったが、ちゃんとしたやり方を知らないせいでかなり微妙な結論に成ってしまったことが結構あった。今回、そのちゃんとしたやりかたを一から教えていただき、その後実践していったので、とても良い案が出来たし、なにしろブレーンストーミングの正しいやりかたを知ることができた。今後もかなり活かせる知識であると思う。
  • みんなでどんどん意見を出し合ったりして作りたいものをみんなで決めていくというものだったけど、自分が思っていた以上に面白いアイデアを出せたり聞いたりできてとても面白かったです。最初の研究室の話では、AIと言う人は実はちゃんとした研究者じゃなくて詐欺の人が多いっていうのを知ってめっちゃびっくりしたけど、とてもためになる話でした。
  • まずはじめに、音声に関する研究をしていらっしゃる研究室に伺った。音楽を、人の声とそれ以外の音声に自動的に分離したり、サビやコード進行などを自動的に判別したり、夢のようなプログラムが作られていると感じた。知っている曲のコード進行が正確にわかるととても嬉しいので、今後の進展が楽しみだ。 テーマ決めでは、KJ法という方法を用いた。ブレインストーミングの一種ということだが、当然ながらこれまで経験してきたアイデア出しの議論の中では一番意見が出しやすかった。今後も積極的に用いて行きたい。結果として、別の人の案を面白そうだと感じたので、そちらに合流して、大まかな仕様を話し合った。グループを組むことになった相手の頭の回転の速さなどには驚かされたので、僕も頑張ろうと思う。
  • まず音声メディア研究室の方のもとに伺い、人工知能を駆使して様々な音を聞き分けてうまく情報を取り出す技術について、概要を簡単に教えて頂いた。音を効率よく拾う方法や、必要な音声を得るために不要なノイズなどを選んで消去する技術、取り出した音から本質となる情報を抜き出す技術など様々な問題があるが、それを分割するのでなくまとめて解決するやり方を考える、というのが予想外だったので印象に残った。また実際にその技術がSongle やTextalive といったサービスで応用されていることも見た。そのあと、授業の後半に数人でグループになってarduino を使って作るアプリケーションについて、KJ法というやり方でたくさんアイデアを出し、誰が何を作るのか決めた。

2017年11月18日

  • 実施場所

    吉田キャンパス 総合研究7号棟2F

  • 当日の講師

    中澤 篤志 准教授

  • チューター

    北角 一哲、松田 貴大、三鼓 悠

  • 実習の内容

    画像メディア研究室(延原講師)を見学し、3Dスタジオについて見学を行った。その後、西田研究室で留学生によりVRシステムの説明を受け体験した。その後、Processingプログラミングの学習及び実習を行った。

  • 画像メディア研究室見学
  • VR体験
  • Processingの実習

活動を通して学んだこと

  • 前半、研究室見学と、VR体験をし、そののちプログラミングをやってみる、という形であった。 前半は、とても興味深いお話を聞けたとおもう。画像処理関係で、緑の部屋に入ってそこで動くと、周りにある沢山のカメラによって色々なところからの映像が撮れ、最終的に3Dで映像として表現できるというものであった。もともとこのような技術があることはうっすらと知ってはいたが、実際に体験するのは初めてとなった。特に印象に残ったのが、「この技術は正確に物体を認識しているわけではなくて、あくまでも沢山の映像から物体の形を推定しているだけである」という点である。碓かに推定しているのは少し考えればわかる話ではあるが、ちゃんとそれを正確に私たちに伝えてくれるという点がとてもすごく感じた。どちらにしろこの技術はとてもすごいし、今後物体の動きからの画像処理を少ないカメラでやっていこうとする、どこまでもト止まらない姿勢がすごいと思った。自分もこのくらいの意欲を持って研究したいし、研究しているという自負を持ちたい。 後半はProcessingを使ったプログラミングであった。これは初めて使ったものではあるが、ちゃんと理解し、ある程度使いこなすことができた。私はずっと、点をランダムに配置することで円周率を求めるというプログラムを書いていたが、他の人はもっと面白そうなことをやっていて、もっと話を聞きたいと思った。次回からチームを編成し、アイデアも出していくようなので、アイデアを自分の中で何個かねっておこうと思う。また、私のプログラムは実行しても何故か円周率が大きめ(3.16~3.17くらい)に出てしまうので、その原因を知りたい。
  • 今回の実習では、まずVR,3D撮影など現在の最先端の映像技術について学ばせて頂きました。その後、プロセッシングの実習によって、いかにして相手に伝わるようにプログラムを書くかという事について学ばせて頂きました。プロッセシングについてもこれまでも少しは触れてはきたのですが、今回のようにお互いに見せ合うことによって、新たなインスピレーションを生むという事は初めてだったのでとても勉強になりました。なので今回の実習で私は映像の大切さ、プログラマ同士の交流の面白さを学べたのではないかと思います。
  • processingを用いてプログラミングの基礎を学ぶことができた。また、画像メディアを通して物理コンピューティングの特性を学ぶことができた。
  • 初めて絵を書くプログラミング言語を使ったけど、結構面白かったです。でも、プログラミングをするには知識や技術だけじゃなくて作りたいものを想像する力も必要だということを実感しました。
  • Processingを用いてプログラミングをすると、結果がビジュアルとして見やすいのでとてもよかった。自分のものとして自由自在に扱えるようになりたい。 使っているうちに仕様に不明な点が出てくることがよくあるので、それを通じて出来ることのバリエーションを広げていくといいのかもしれない、と感じた。 ArduinoとProcessingをつなぐといろんなことができそうで楽しみになる反面、何かを作るということでは想像力が要求されて、面白いものを作るのは難しそうだと感じた。
  • メールによって授業のパワーポイントを頂いたので内容を確認した。前回はarduino と呼ばれる電子工作メインのプラットホームについて学んだのに対し、今回はprocessing という与えられたデータから簡単に線や図形を描画したりアニメーションを数値で細かく作ることができるプラットホームについて、その使い方を学んでいるようだった。パワーポイントから簡単な描画はできるようになった。

2017年11月4日

  • 実施場所

    吉田キャンパス 総合研究7号棟2F

  • 当日の講師

    中澤 篤志 准教授

  • チューター

    北角 一哲、松田 貴大、三鼓 悠

  • 実習の内容

    各自の自己紹介、研究内容の紹介、物理コンピューティングについての概要説明、Arduinoのプログラミング入門、LED回路およびセンサ回路の組み方。

  • 物理コンピューティングによるインタラクション技術_実習風景実習中の様子1
  • 物理コンピューティングによるインタラクション技術_実習風景実習中の様子2

活動を通して学んだこと

  • 今回の活動は、内容では、基本的に私の既に知っている範囲(プログラミングの基礎)であったので、学問的な新しい学びはあまりなかった。ただ、その中でもこれまで特に私が必要としなかったために知識としてなかったこともあった。その例がシリアルモニタ(PC側)からArduino(マイコン側)に送るという通信であった。これは個人的にはこれまで必要がなかったので全く知識がなく、結局できないままモヤモヤしてしまった。大体は本を読んで理解できたが、どうもうまく動かなかった。次の活動までには調べておきたい。 また、学生の研究発表で、「学んだこと」からは少しずれることであるかもしれないが、ちょっと気になったことがあった。この研究室は主に目の画像処理をしていく研究室でありそうだが、それにはよくディープラーニング、深層学習を使っているようであった。私が最近始めた研究では、ヒューマノイドロボットを歩かせる作業を機械学習でやるものであるが、機械学習の根底にはディープラーニングの思考は被ってくるので、もしかしたら研究の助けになるような情報があるかもしれない、と思った。今後研究をすすめるにつれうまくいかないことがあったら、聞いてみるというのも良いかもしれない。 そして、「自己目標達成できたこと、できなかったこと」にも書いたが、学問的な疑問をELCASに来ている人に質問するとかなり良い答えが返ってくることを知った。人脈として、友達として、お互いに勉強し合えるような仲になりたく思った。
  • 物理コンピューティングではセンサーや出力装置を使うことで、コンピュータと現実世界をつなぐということに興味を持った。ゲームのリモコンといった身近なものにも物理コンピューティングの技術が使われていることを初めて知った。
  • Arduinoについて、物理コンピューティングとは、様々なセンサとArduinoとの接続、回路の設計等々。特に私は実際に回路を組んでみたりすることをこれまでしてこなかったため、回路の設計については本当に勉強になった。さらに今回の実習で同じ回路から幾千万ものの違うものが生み出せるという事を改めて学べた。本当に良かった。
  • 物理コンピューティングとは一体何なのかというところや、ソフトウェアの使い方を学んだ。
  • 初めて使うプログラミング言語で少し戸惑ったけどほかの言語とあんまり変わらなかったので結構出来たと思います。でも、ほかの人たちがとても凄かったので自分ももっと頑張りたいなと思いました。
  • コンピュータと現実の世界をつないで連携させると、すごく面白いことがわかった。前回の作品の映像を見たり、本を読んだり、実際に触ったりしていると、様々なことが実現できそうだと思ったが、同時にそれらを実現するには様々なことを学び、頭に入れなければならないことを感じた。
  • まずはじめにこの後期のコースを通じてどのようなことを学ぶのかということを最初に聞いた。そして「フィジカルコンピューティング」、「インタラクション」といった重要な単語の意味について学んだ。 その上でAruduinoの取り扱い、及び簡単なプログラミング、回路の設計を行った。
  • まず、普段使うコンピューターがキーボードとマウスから入力された情報を受け取って画面に出力するという、現実世界との接点が少ないオブジェクトであるのに対して、「フィジカルコンピューティング」が目指すのは、キーボードだけでなくスイッチやさまざまなセンサーから受け取った情報を、パソコンのモニターはもちろんのこと、光を出すLEDや音を鳴らすブザーといったアクチュエーターによって発信するインタラクティブなデバイスである、ということをはじめに学んだ。 その上でフィジカルコンピューティングに則った電子工作を可能にするarduino というプラットホームと、それを使用してブザーをボタンが押された時に鳴らしたり、キーボードが押された時にLEDを光らせ、結果をシリアルモニターに出力する、といった基本的な使い方について勉強した。

平成29年度 実施レポート

年度別の実施レポート