eye-display の fork先とユースケース調査 #6
Replies: 7 comments 4 replies
-
https://github.com/sktometometo/eye-display のmasterのバージョンで昔 Spot に目をつけて遊んでました。 特に感情表現とかの機能は使わず、注目している先が周りの人にわかるように目を動かしてました <TODO: 動画か画像、もしくはリンク> <TODO: デモのコード> |
Beta Was this translation helpful? Give feedback.
-
私の把握している限り(offlineで話した or fork履歴がある)、eye-displayを使われている方は以下だと思います |
Beta Was this translation helpful? Give feedback.
-
自分は電伝虫で使っていて、
という感じなのでコード的に新しさはなかったと思います |
Beta Was this translation helpful? Give feedback.
-
@heissereal <https://github.com/heissereal>
が使おうとしてビルドできてなかったので直したことがあってそでれフォークしてます.
自分のユースケースはありません.
2025年2月4日(火) 17:37 Ayaha Nagata ***@***.***>:
… 自分は電伝虫で使っていて、
- 画像の追加/変更
- それに伴って対応するrostopicの値を変更
- 取り付けの角度が違ったので90度回転
という感じなのでコード的に新しさはなかったと思います
—
Reply to this email directly, view it on GitHub
<#6 (comment)>,
or unsubscribe
<https://github.com/notifications/unsubscribe-auth/APNTOIEDEAZKA3XPPBCFI7L2OB36JAVCNFSM6AAAAABWN6IA32VHI2DSMVQWIX3LMV43URDJONRXK43TNFXW4Q3PNVWWK3TUHMYTEMBVGIZDONY>
.
You are receiving this because you were mentioned.Message ID:
***@***.***>
--
----------------------------------------------------------------------------
東京大学大学院 情報理工学系研究科 知能機械情報学専攻
情報システム工学研究室 (JSK) 修士2年
杉原和輝 / Kazuki Sugihara
Email: ***@***.***
TEL: 03-5841-7109
----------------------------------------------------------------------------
|
Beta Was this translation helpful? Give feedback.
-
柏木さん・くろみつでの使い方 w/ @sawada10 現状(2025年2月時点)だと
くろみつの画像は私のレポジトリにあって、branch名が 学生たちが画像をupdateしてくれましたが、動き方は変わっていないので、動画は、 柏木さんも画像が違うのみで同じ使い方です。 |
Beta Was this translation helpful? Give feedback.
-
新城さんのレポジトリからforkして使っていました。 追加機能感情表現(瞬きを含む) ユースケース感情表現を用い、視線方向については使っていなかった。 ①(ノーマル)KXRに接続概要:FSRにタッチすると、目の表情が変わる
② 柏木さんに接続@a-ichikura のくろみつのコメントと同様
その他の作業履歴視線方向指示のプログラムのデバッグ感情表現のプログラムを追加していたら、新城さんのもともとの実装の視線方向指定機能が使えなくなっていた。 |
Beta Was this translation helpful? Give feedback.
-
遅くなってしまいすみません。
自分のユースケースは、hugmyにのせてアプローチ時に人を目で追うのと、パーチング時のタイミングを目で知らせることに使っています。
I2Cを使っているので、矢野倉さんのをforkして使っています。
https://github.com/heissereal/eye-display/tree/vim4-eyedisplay
https://github.com/heissereal/jsk_aerial_robot/blob/develop/hugmy/robots/hugmy/script/approaching_human_with_depth_and_eyemodule.py
2025年2月4日(火) 17:31 Tomoka Sawada ***@***.***>:
… 私の把握している限り(offlineで話した or fork履歴がある)、eye-displayを使われている方は以下だと思います
ユースケースをコメントしていただけると嬉しいです。よろしくおねがいします
@a-ichikura <https://github.com/a-ichikura>
@ayaha-n <https://github.com/ayaha-n>
@heissereal <https://github.com/heissereal>
@iory <https://github.com/iory>
@sugikazu75 <https://github.com/sugikazu75>
—
Reply to this email directly, view it on GitHub
<#6 (comment)>,
or unsubscribe
<https://github.com/notifications/unsubscribe-auth/AYU3F3TTTNJAMNH6COLA5ST2OB3G5AVCNFSM6AAAAABWN6IA32VHI2DSMVQWIX3LMV43URDJONRXK43TNFXW4Q3PNVWWK3TUHMYTEMBVGIZDAMQ>
.
You are receiving this because you were mentioned.Message ID:
***@***.***>
--
*--------------------------------------------------------*
東京大学
学際情報学府 先端表現情報コース
岡田・小島研 M1 宮道彩乃
***@***.***
*--------------------------------------------------------*
|
Beta Was this translation helpful? Give feedback.
-
統一に向けてだれがどういうふうに使っているのか確認したいです。おそらく @sawada10 のforkをベースに使っていると思うので、そことの差分も簡単に説明されるとわかりやすいはず。
Beta Was this translation helpful? Give feedback.
All reactions