All that remains here are practice pieces for vibe coding.
The demo in the previous video may have been difficult to understand because it included extra processing to convert the string shape into an audio waveform.
I'm posting a slightly clearer version 2 demo.
1つ前の動画はちょっとわかりにくかったかもしれない。リール動画は2秒でわからないと見てもらえないので、ちょっとわかりやすくしたバージョン2を掲載。
I tried turning the waves captured by the camera into sound.
At first, this seemed easier than turning a person's arm into sound, but it turned out to be harder than expected.
Initially, I simply tried capturing white paper and then the waves on that paper, but I couldn't quite capture the waves well.
So, I drew a circle at the center of the screen and made the waves touching that circle sound, and it worked.
映像内の波を音にしてみた。
簡単そうに見えるじゃないですか。単に白い紙の上の波を検出するっていう処理だと、紙の誤検出や紙の陰影による線の誤検出やらでなかなかうまくいかない。
で、画面中央に円を描いて、そこに接する波を音にするってことにして一件落着。
でも、線の両端を結んだ線を平行にする(x=0として扱う)処理を入れたことで、入力映像の波と出力波形の合致感が減って残念ポイントになった気がする。
This time, I tried using something called HRTF (Head-Related Transfer Function). It seems that this allows virtual control over the position where sound originates.
While this app doesn't use HRTF in its intended way, I experimented with placing a bowl inside your head, dropping a ball into it, and listening to the sound it makes inside your head.
The tilt of the head within the app is controlled by the tilt of your smartphone or by arrow buttons on the screen.
If you're interested, please try it with earphones connected to your PC or Android device. It did not work on iPhone.
JavaScriptからHRTF(頭部伝達関数)を使えるっていうのを知り、これはvibe codingしてみよう、と。
これを使って音の発生位置を変えてみる。
今回は本来の使い方ではないので、全然正しくは動いていないのだろうけれど、前後位置はやっぱりそれほどわからない。まあ、人間自体、音の前後が捉えにくい構造だし、こんなものなのかもなあ。
Androidなら本体の傾きでボールを動かせます。iPhoneでは動作せず。
Have you ever found it difficult to move your hands?
Isn't it frustrating when you can't send Morse code?
But don't worry! This tool made with vibecoding lets you send Morse code using abdominal exercises instead of hand movements.
Plus, it converts that Morse code into text.
I make the world more convenient! Vote for me!
By the way, debugging was really tough...
腹筋がモール信号になるのです。
便利だね。
本当は60秒動画にしたのだけれど、後半がひどすぎたので一回アップロードしたものを削除して再アップロードしました。
こんなに腹筋ができないわけじゃなくて、デバッグで何度も闘ったあとの様子なので……。
Today I made an app that controls pitch based on my face position. It also controls volume and note length with one hand.
Using both hands would be easier to control than the face and one hand, but using the face makes it look silly and funny, probably. ;p
今日のvibe codingは顔で音階を指定して、手で音の長さと大きさを変えるっていうもの。
楽勝かなと思っていたのに、Gemini-CLI(gemini-2.5-pro)がとことんバカになってきて、全然バグが取れず。またもやだいぶ自力デバッグしてしまった。
「これで完成です」とか言うくせにSyntax Errorとか、ふざけんなよと。「これ以上の修正は困難」とか言うけど単純なバグだったり。
他の有料AIに乗り換えようかと思うくらいにはムカついた。
本当はもうちょっと良い音色にしたかったけれど、その前に時間(気力)切れ。
Today I tried making a game like Atari Breakout with vibecoding.
But it's not just a cheap knockoff—you control it with the pitch of your voice.
But after making it, I realized I'm incredibly tone-deaf.
So I can't control this game at all.
This game uses pitch detection technology, but the processing is pretty slow and it struggles to capture the pitch accurately.
That makes controlling the game even harder.
I tried several pitch detection methods, but they all ended up being a bit too heavy for real-time control in a web browser.
Well, for today's demo, I decided to use keyboard sounds instead.
To be honest, detecting human voice pitch is especially difficult, so there are a lot of false detections.
Since it's a game where you input sounds, there are no game sound effects, but it's okay for a game like this to exist, right?
Actually, I've never gotten it to work all the way through, so I haven't even tested whether it executes to the end.
ブロック崩しを声の音程で制御したら歌の練習にもなる?
今日はそんな想いでvibecoding。
白鍵のドレミファソラシの7音で、下の動かすやつをコントロール。ドは両端を担当。
ピッチ検出が難しい。どうにも遅いし、誤認識してしまう。いざ作ってみると教科書には載っていない難しさがある。
ちなみに自分は音痴過ぎるし、楽器のキーボードの音で操作。
Today's vibecoding, I made a piece where I transform into a metallic-faced man using a transformation pose.
That's all.
You thought it was boring, didn't you?
I finally felt that way too after finishing it.
Well, that happens sometimes.
Actually, it happens quite often.
Because of this work, I hit the free usage limit for gemini-2.5-pro. :(
ちょっと面白いかもと思って作り始めたものの、メタル顔は調整してもあまり金属っぽくならないし、想定よりもだいぶつまらないものになってしまった。
This vibe coding is also an acoustic generation work created using posture detection.
It plays drum machine sounds and modifies them with filters drawn by my body.
But I just can't seem to play it well. ;(
身体で描く音響シリーズとでも言おうか。
ネタが無くなったらこのシリーズになる感じ。
簡単なドラムマシンを作って、身体の描く曲線でフィルターをかけるというもの。数時間かかったけれど、コードも撮影も完成度は高くない。神は細部に宿るけど、宿るまで頑張ると疲れちゃうのが難点。
Today's vibe coding session yielded a new sound synthesis method. The shape of my arms form the audio waveform.
And the position of my body determines the left-right positioning of the sound.
すでに酔っ払っていて、これから室内に洗濯物を干さなければならない。その前に録画をせねば。
ってことで、腕の形が音の波形になるようにしてみた。ついでに身体の位置で音が左右に動くようにしてみた。
Today's vibecoding is based on Super Mario Bros.
私はゲームをしないので思い入れが無く、完成度が低くて恐縮至極。
スーパーマリオシリーズも全部で1回か2回やっただけだと思う。
BGMはAIがどこからかフリー素材を持ってきた。効果音はAIにFM音源スクリップを書いてもらって生成したり。
Today's vibe coding is my first stereo sound generation inspired by singing bowls. I could get a good sound.
シンギングボウルというものをモチーフにして、手でうまく円を描けると音が鳴るというもの。これを左右の手に対応して左右で鳴らした。円の大きさによって音程が変わるようにしてみた。
リバーブ等の音響エフェクトもAIにコードを書いてもらった。
正しく左右の手の動きに合っているのかというと、ちょっとバグっている気もするけれど、今日はこの程度にしておく。