ロボット、千葉ロッテマリーンズについていいかげんなことを書きます。
×
[PR]上記の広告は3ヶ月以上新規記事投稿のないブログに表示されています。新しい記事を書く事で広告が消えます。
流石に10作品以上の感想を一気に書くのは辛いので3作品だけ書きます。
まずはこの作品の感想を書きます。
マニュアルを読んでみたのですが、全体的に不親切な印象です。
まずどうやってRTCを使用してほしいのかが分かりませんでしたし、どういうシステムを作成したのかについての説明がないので内容自体がよく分かりません。
どうやって使ってほしいのか?という部分の説明が不足しています。第三者がシステムを再現するために必要最低限の情報が足りていません。
もっとマニュアルを加筆しないと厳しいかなという印象でした。
ソースコードを読んだ感想を書きます。
SixLevelColourMapper.hでcolourという変数が定義されていますが、どうやら値が変わることはないようなので定数でいいと思います。
public:
static const RTC::RGBColour colour[6];
あとHREstimator.cppでWindows APIのSleep関数を使っていますが、移植性を考えたらcoilの関数を使った方がよいかもしれません。それ以前にonExecute関数内でsleep関数を使う意図はなんでしょうか?
HREstimatorというRTCからセンサーの値を好きな時に取得する事はできないわけで、しかもonExexute自体が実行コンテキストで周期的に駆動しているので、sampleTimeというコンフィギュレーションパラメータで設定した時間ごとに計測はできていないと思います。
本当に正しい心拍数が計算できているのでしょうか?
次にこの作品の感想を書きます。
OpenRTM-aistの1.1.1ではなく1.1.0を使っている事もまず疑問ですが、どうしてデバッグビルドしているのでしょうか?
マニュアルを読んでみたのですが、このマニュアルを読んでシステムを再現するのは無理だと思いました。情報が足らなすぎます。
よく分かりませんけど、写真の日付は勝手に入れてくれる方が便利ではないでしょうか?
コンフィギュレーションパラメータでいちいち設定し直すのは面倒です。
コメントも音声などで入力できるようにしておいた方が面白そうです。
ソースコードを読んでみた感想を書きます。
まず、cvCustom.hというファイルは誰が作成したのでしょうか?
第三者から見たらこのコードに上部に記載されている人物がこの作品に関係あるのかないのかは判別できないわけで、ソースコードでの審査があるわけですからこういうややこしいことはやめてほしいです。
関係ある人物ならば構いませんが、関係ない人物の場合はマニュアルに使用を明記した方が安全です。
まあこの程度の量なら怒る人もあまりいないでしょうけど、無用なトラブルを避けるためです。
安全とか危険とか以前に、このコードの作者への最低限の敬意は払うようにしてください。
ちょっとマジックナンバーが多いかなとは思いました。
定数で定義しておいて使った方がよいかもしれません。
最後にこの作品の感想を書きます。
まずOpenRTM-asistってなんでしょうか?
マニュアルでもこう書いてあるので誤字ではなく勘違いをしている可能性がありそうです。
CropImageのCroners等は独自のデータ型を使った方が分かりやすいかもしれないです。
まあ意見の分かれるところでしょうけど。
SysMLの図を付属してるというのを見て少し不安になりました。変な実装になっていなければいいのですが。
内部ブロック図を見た感じでは多分大丈夫かな?と言う感じはします。
ただ実際のRTシステムを見た感じ、これはよくないなと思いました。
LongSeqJointer、LongSeqSplitter、IR_Transceiverを分割しているのは一気にシステムの見通しを悪くしています。
おそらくIR_TransceiverとLongSeqJointer、LongSeqSplitterは他のRTCには置き換える事の出来ない不可分な関係になっているので、分割する意味はありません。
確かにこの手の処理はArduino言語では難しいので気持ちは分からなくはないですが、何とかならなかったのかなとは思います。
どうやらRaspberry PIを使う場合は単一のRTCで大丈夫みたいなのでいいのですけど、Arduinoを使う場合は少し気になります。
IRControllerとLED_Detectorを分割する必要はあったのかな?と思いました。
よく分かりませんが、この2つのRTCは他の用途で使用可能なのでしょうか?
一緒でも良かったかもしれませんが、LED_Detectorは他に接続可能なRTCも作成できるかもしれないので何とも言えません。
マニュアルを読んでみた感じですが、動作させるのは無理そうです。
自動起動のスクリプトを作ってほしいです。
起動してからの使い方もよく分かりません。動画だけではなくマニュアルでも説明してほしいです。
ソースコードを読んでみた感じ、かなり頑張っているように思いました。
参考になる部分も多かったように思います。
WebUI.pyですが、onExecuteでデータの送受信を処理する必要があるのかな?と思いました。
どうやらonExecuteでInImageのデータを読み込んでグローバル変数g_imgに圧縮した画像を格納しているみたいです。そしてWSHandlerのloop内でg_imgから画像を描画するようにしているみたいですが、それならデータの読み込みもloop内で処理すればよかったのではないでしょうか?
逆にインスタンス化したRTCをグローバル変数に格納してWSHandlerのloop内で使用すれば可能だと思いますけど。
数えてみたところ13作品しか登録されていません。
18だったと思うのですが、ひょっとしたら勘違いかもしれないです。
にほんブログ村のロボットのカテゴリから
全然人が来ない・・・
まずはこの作品の感想を書きます。
マニュアルを読んでみたのですが、全体的に不親切な印象です。
まずどうやってRTCを使用してほしいのかが分かりませんでしたし、どういうシステムを作成したのかについての説明がないので内容自体がよく分かりません。
どうやって使ってほしいのか?という部分の説明が不足しています。第三者がシステムを再現するために必要最低限の情報が足りていません。
もっとマニュアルを加筆しないと厳しいかなという印象でした。
ソースコードを読んだ感想を書きます。
SixLevelColourMapper.hでcolourという変数が定義されていますが、どうやら値が変わることはないようなので定数でいいと思います。
public:
static const RTC::RGBColour colour[6];
const RTC::RGBColour sample1::colour[6] = {(省略)}
こんな感じで。あとHREstimator.cppでWindows APIのSleep関数を使っていますが、移植性を考えたらcoilの関数を使った方がよいかもしれません。それ以前にonExecute関数内でsleep関数を使う意図はなんでしょうか?
HREstimatorというRTCからセンサーの値を好きな時に取得する事はできないわけで、しかもonExexute自体が実行コンテキストで周期的に駆動しているので、sampleTimeというコンフィギュレーションパラメータで設定した時間ごとに計測はできていないと思います。
本当に正しい心拍数が計算できているのでしょうか?
次にこの作品の感想を書きます。
OpenRTM-aistの1.1.1ではなく1.1.0を使っている事もまず疑問ですが、どうしてデバッグビルドしているのでしょうか?
マニュアルを読んでみたのですが、このマニュアルを読んでシステムを再現するのは無理だと思いました。情報が足らなすぎます。
よく分かりませんけど、写真の日付は勝手に入れてくれる方が便利ではないでしょうか?
コンフィギュレーションパラメータでいちいち設定し直すのは面倒です。
コメントも音声などで入力できるようにしておいた方が面白そうです。
ソースコードを読んでみた感想を書きます。
まず、cvCustom.hというファイルは誰が作成したのでしょうか?
第三者から見たらこのコードに上部に記載されている人物がこの作品に関係あるのかないのかは判別できないわけで、ソースコードでの審査があるわけですからこういうややこしいことはやめてほしいです。
関係ある人物ならば構いませんが、関係ない人物の場合はマニュアルに使用を明記した方が安全です。
まあこの程度の量なら怒る人もあまりいないでしょうけど、無用なトラブルを避けるためです。
安全とか危険とか以前に、このコードの作者への最低限の敬意は払うようにしてください。
ちょっとマジックナンバーが多いかなとは思いました。
定数で定義しておいて使った方がよいかもしれません。
最後にこの作品の感想を書きます。
まずOpenRTM-asistってなんでしょうか?
マニュアルでもこう書いてあるので誤字ではなく勘違いをしている可能性がありそうです。
CropImageのCroners等は独自のデータ型を使った方が分かりやすいかもしれないです。
まあ意見の分かれるところでしょうけど。
SysMLの図を付属してるというのを見て少し不安になりました。変な実装になっていなければいいのですが。
内部ブロック図を見た感じでは多分大丈夫かな?と言う感じはします。
ただ実際のRTシステムを見た感じ、これはよくないなと思いました。
LongSeqJointer、LongSeqSplitter、IR_Transceiverを分割しているのは一気にシステムの見通しを悪くしています。
おそらくIR_TransceiverとLongSeqJointer、LongSeqSplitterは他のRTCには置き換える事の出来ない不可分な関係になっているので、分割する意味はありません。
確かにこの手の処理はArduino言語では難しいので気持ちは分からなくはないですが、何とかならなかったのかなとは思います。
どうやらRaspberry PIを使う場合は単一のRTCで大丈夫みたいなのでいいのですけど、Arduinoを使う場合は少し気になります。
IRControllerとLED_Detectorを分割する必要はあったのかな?と思いました。
よく分かりませんが、この2つのRTCは他の用途で使用可能なのでしょうか?
一緒でも良かったかもしれませんが、LED_Detectorは他に接続可能なRTCも作成できるかもしれないので何とも言えません。
マニュアルを読んでみた感じですが、動作させるのは無理そうです。
自動起動のスクリプトを作ってほしいです。
起動してからの使い方もよく分かりません。動画だけではなくマニュアルでも説明してほしいです。
ソースコードを読んでみた感じ、かなり頑張っているように思いました。
参考になる部分も多かったように思います。
WebUI.pyですが、onExecuteでデータの送受信を処理する必要があるのかな?と思いました。
どうやらonExecuteでInImageのデータを読み込んでグローバル変数g_imgに圧縮した画像を格納しているみたいです。そしてWSHandlerのloop内でg_imgから画像を描画するようにしているみたいですが、それならデータの読み込みもloop内で処理すればよかったのではないでしょうか?
逆にインスタンス化したRTCをグローバル変数に格納してWSHandlerのloop内で使用すれば可能だと思いますけど。
数えてみたところ13作品しか登録されていません。
18だったと思うのですが、ひょっとしたら勘違いかもしれないです。
にほんブログ村のロボットのカテゴリから
全然人が来ない・・・
PR
この記事にコメントする