All that remains here are practice pieces for vibe coding.
0022
Copernicus thought the Earth was moving.
So when I'm doing push-ups, maybe it's not me moving, but the floor?
This video is proof.
Anyway, I was hoping for a bit more funny footage...
I thought about deleting this video, but I've deleted so many lately, so I'll just upload it. ;p
アニメの「チ」を見つつ閃いたネタ。
俺じゃなくて地球が動いているんだ!
で、作ってはみたものの、映像は予想以上につまらない。
Instagramだとリール動画って視聴者がその動画から何秒で離脱していくかがグラフでわかるけど、この動画の結果はだいぶ厳しそうだ……。
0021
Meta's new glasses apparently have electromyography sensors built in, allowing you to zoom using arm movements.
I can't afford them, but it made me want to try making something a bit similar myself.
Pinch in with both hands to zoom in, bring your palms closer to zoom out.
It has no sound, unobtrusive creation, but I feel like I've gotten just a little bit closer to the future too.
両手でズームインとズームアウトを操作するもの。
簡単なvibe codingだけれど、このくらいが良いんだよなあ。
0020.2
The demo in the previous video may have been difficult to understand because it included extra processing to convert the string shape into an audio waveform.
I'm posting a slightly clearer version 2 demo.
1つ前の動画はちょっとわかりにくかったかもしれない。リール動画は2秒でわからないと見てもらえないので、ちょっとわかりやすくしたバージョン2を掲載。
0020
I tried turning the waves captured by the camera into sound.
At first, this seemed easier than turning a person's arm into sound, but it turned out to be harder than expected.
Initially, I simply tried capturing white paper and then the waves on that paper, but I couldn't quite capture the waves well.
So, I drew a circle at the center of the screen and made the waves touching that circle sound, and it worked.
映像内の波を音にしてみた。
簡単そうに見えるじゃないですか。単に白い紙の上の波を検出するっていう処理だと、紙の誤検出や紙の陰影による線の誤検出やらでなかなかうまくいかない。
で、画面中央に円を描いて、そこに接する波を音にするってことにして一件落着。
でも、線の両端を結んだ線を平行にする(x=0として扱う)処理を入れたことで、入力映像の波と出力波形の合致感が減って残念ポイントになった気がする。
0019
This time, I tried using something called HRTF (Head-Related Transfer Function). It seems that this allows virtual control over the position where sound originates.
While this app doesn't use HRTF in its intended way, I experimented with placing a bowl inside your head, dropping a ball into it, and listening to the sound it makes inside your head.
The tilt of the head within the app is controlled by the tilt of your smartphone or by arrow buttons on the screen.
If you're interested, please try it with earphones connected to your PC or Android device. It did not work on iPhone.
JavaScriptからHRTF(頭部伝達関数)を使えるっていうのを知り、これはvibe codingしてみよう、と。
これを使って音の発生位置を変えてみる。
今回は本来の使い方ではないので、全然正しくは動いていないのだろうけれど、前後位置はやっぱりそれほどわからない。まあ、人間自体、音の前後が捉えにくい構造だし、こんなものなのかもなあ。
Androidなら本体の傾きでボールを動かせます。iPhoneでは動作せず。
You can try this app in your web browser. However, it does not work on iPhones.
0018
Have you ever found it difficult to move your hands?
Isn't it frustrating when you can't send Morse code?
But don't worry! This tool made with vibecoding lets you send Morse code using abdominal exercises instead of hand movements.
Plus, it converts that Morse code into text.
I make the world more convenient! Vote for me!
By the way, debugging was really tough...
腹筋がモール信号になるのです。
便利だね。
本当は60秒動画にしたのだけれど、後半がひどすぎたので一回アップロードしたものを削除して再アップロードしました。
こんなに腹筋ができないわけじゃなくて、デバッグで何度も闘ったあとの様子なので……。
0017
Today I made an app that controls pitch based on my face position. It also controls volume and note length with one hand.
Using both hands would be easier to control than the face and one hand, but using the face makes it look silly and funny, probably. ;p
今日のvibe codingは顔で音階を指定して、手で音の長さと大きさを変えるっていうもの。
楽勝かなと思っていたのに、Gemini-CLI(gemini-2.5-pro)がとことんバカになってきて、全然バグが取れず。またもやだいぶ自力デバッグしてしまった。
「これで完成です」とか言うくせにSyntax Errorとか、ふざけんなよと。「これ以上の修正は困難」とか言うけど単純なバグだったり。
他の有料AIに乗り換えようかと思うくらいにはムカついた。
本当はもうちょっと良い音色にしたかったけれど、その前に時間(気力)切れ。
You can try this app in your web browser. However, it does not work on iPhones.
0016
Today I tried making a game like Atari Breakout with vibecoding.
But it's not just a cheap knockoff—you control it with the pitch of your voice.
But after making it, I realized I'm incredibly tone-deaf.
So I can't control this game at all.
This game uses pitch detection technology, but the processing is pretty slow and it struggles to capture the pitch accurately.
That makes controlling the game even harder.
I tried several pitch detection methods, but they all ended up being a bit too heavy for real-time control in a web browser.
Well, for today's demo, I decided to use keyboard sounds instead.
To be honest, detecting human voice pitch is especially difficult, so there are a lot of false detections.
Since it's a game where you input sounds, there are no game sound effects, but it's okay for a game like this to exist, right?
Actually, I've never gotten it to work all the way through, so I haven't even tested whether it executes to the end.
ブロック崩しを声の音程で制御したら歌の練習にもなる?
今日はそんな想いでvibecoding。
白鍵のドレミファソラシの7音で、下の動かすやつをコントロール。ドは両端を担当。
ピッチ検出が難しい。どうにも遅いし、誤認識してしまう。いざ作ってみると教科書には載っていない難しさがある。
ちなみに自分は音痴過ぎるし、楽器のキーボードの音で操作。
なんか、ブログなんかのイイカゲンで情報量ゼロ文章の垂れ流しのように、「作ってみた」アプリケーション垂れ流しだという自覚はしている。
ちゃんとした技術者や研究者やアーティストには敵わない。
You can try this app in your web browser.
0015
Today's vibecoding, I made a piece where I transform into a metallic-faced man using a transformation pose.
That's all.
You thought it was boring, didn't you?
I finally felt that way too after finishing it.
Well, that happens sometimes.
Actually, it happens quite often.
Because of this work, I hit the free usage limit for gemini-2.5-pro. :(
ちょっと面白いかもと思って作り始めたものの、メタル顔は調整してもあまり金属っぽくならないし、想定よりもだいぶつまらないものになってしまった。
0014
This vibe coding is also an acoustic generation work created using posture detection.
It plays drum machine sounds and modifies them with filters drawn by my body.
But I just can't seem to play it well. ;(
身体で描く音響シリーズとでも言おうか。
ネタが無くなったらこのシリーズになる感じ。
簡単なドラムマシンを作って、身体の描く曲線でフィルターをかけるというもの。数時間かかったけれど、コードも撮影も完成度は高くない。神は細部に宿るけど、宿るまで頑張ると疲れちゃうのが難点。
You can try the JavaScript version of this feature in your web browser.
0013
Today's vibe coding session yielded a new sound synthesis method. The shape of my arms form the audio waveform.
And the position of my body determines the left-right positioning of the sound.
すでに酔っ払っていて、これから室内に洗濯物を干さなければならない。その前に録画をせねば。
ってことで、腕の形が音の波形になるようにしてみた。ついでに身体の位置で音が左右に動くようにしてみた。
You can try the mono sound version of this feature in your web browser.
0012
Today's vibecoding is based on Super Mario Bros.
私はゲームをしないので思い入れが無く、完成度が低くて恐縮至極。
スーパーマリオシリーズも全部で1回か2回やっただけだと思う。
BGMはAIがどこからかフリー素材を持ってきた。効果音はAIにFM音源スクリプトを書いてもらって生成したり。
0011
Today's vibe coding is my first stereo sound generation inspired by singing bowls. I could get a good sound.
シンギングボウルというものをモチーフにして、手でうまく円を描けると音が鳴るというもの。これを左右の手に対応して左右で鳴らした。円の大きさによって音程が変わるようにしてみた。
リバーブ等の音響エフェクトもAIにコードを書いてもらった。
正しく左右の手の動きに合っているのかというと、ちょっとバグっている気もするけれど、今日はこの程度にしておく。
You can try this app in your web browser. However, it does not work on iPhones.
0010
This vibe coding is a continuation of edge detection.
I thought if I could get the outline, filling it in with a single color might create an animation effect. But it's not working out well. Maybe the lighting is bad.
もういっちょvibe coding。
エッジ検出の続き。
輪郭が得られればその閉面を単色で塗り潰すことでアニメ調になるかなと思って試した。パラメタをいくつか調整してはみたものの、なかなかうまくはいかず。照明が良くなかったりするかも。
もっとコンピュータパワーがあったり、処理を効率化できるのなら、エッジの時間的な平滑化(チラチラ現れたり消えたりするのを防ぐ)とか、線を細かくしつつも小さい閉面の合体とか、色の違いが大きいところは1面として単色化せずに分割とかできるのかもしれない。
0009
This vibe coding only did edge detection on a monochrome image, but that was boring, so I tried dancing. It turned into some shitty, clumsy dance. :(
今日のvibe codingはエッジ検出しただけなんだけれども、リアルタイムの動画でやるとそこそこ楽しいかな。
プロンプト一発でほとんどできた。
エッジ検出だけだと寂しいので、キレの無い踊りをしてみた。初老の残尿のごとくキレが無さ過ぎる。
0008
Did you ever play catching rain from the roof when you were a kid?
Even as an adult, I still play that game with vibe coding. I made it play sounds too.
本日のvibe codingは音遊び。
こどもの頃に軒先から垂れてくる雨を掴むような遊びをやった人も多いと思う。それで音が出るようにしてみた。
音の出る範囲(緑の線の幅)が変えられるのでメロディを演奏することも可能だけれど、演奏技術的に難しいのであきらめた。
で、やはりリアルタイム加工映像と生成音の録画っていうのは難しくて、映像と音がズレてしまう。
充分なフレームレートで映像が加工できて音が鳴らせるだけの処理ができれば良いのだけれどそれも厳しそうだし、中途半端な仕上がりにしかならない。
別のカメラで撮るのが良いかなあ、と悩む。
0007
Today's vibe coding is voice synthesis.
It vocalizes in real time in sync with keyboard input. Holding down the alphabet keys corresponding to Japanese vowels (aiueo) will lengthen the sound accordingly.
While the synthesized sound is a bit cheap, the real-time vocalization linked to key input is kind of interesting.
今日のvibe codingは音声合成。
キーボード入力に連動してリアルタイムに発声する。母音に対応したアルファベットのキー(aiueo)を長く押せばそれに合わせて長音化する。
現代の音声合成技術とは比較にならないほどの低レベルな合成音ではあるものの、細かいアルゴリズムを考えることもなく数時間でできることに驚き。
声帯や舌を失った人向けの音声合成アプリもあるけれど、文を入力してから発話するものがほどんどだと思う。これは慣れやコツがいるけれど、キー入力に連動したリアルタイム発声というのが面白いかな、と。
0006
It is the ceaseless movement of daily life that keeps a person in the memory of others.
In this vibe coding, anything that doesn't move gets blurred out.
今日はもうひとつvibe coding。これはすぐにできた。
カメラ画像を録画したいけれど、人物以外の背景は生活感溢れているし、あまり写したくないじゃん。で、動きのない部分はモザイクをかけるようにした。
やってみたけど、そのままだとあまり面白くはないかな。
日々の絶え間のない動きがその人を他者の記憶に留めるのだ、とかいうコンセプトってことにしよう。タイトルは "忘却への抗い" ってところか。
0005
With this vibe coding, you can play drums while headbanging. Now heavy metal fans can become performers too.
This is a software recreation of a work by the electronics crafting unit "Happy Star Interface".
今日のvibe coding……と言いたいところだけれど、うまくいかずに音を鳴らすタイミングの判定は人力コーディング。処理能力不足で、フレームレートや解像度をだいぶ落とした。なかなか難しい。
20年以上前にハッピースターインターフェースという電子工作ライブユニットのヘッドバンギングして音を鳴らすという作品を拝見した。
音楽に人間がノって合わせるのではなく、音のほうが人間に合わせるわけで、人間ファーストとも言えるw
その後、僕も真似してArduinoと水銀スイッチを使いMIDIリズムマシンを鳴らすものを作った記憶がある。
今回はそれを画像処理で。何度もデバッグと調整をしてクラクラしてきたので、このへんでやめておく。
0004
This vibe coding is the basics of body detection. Since that alone is boring, I tried some pantomime ;p
環境構築に時間がかかって今日はこれしかできなかった。なかなか動作環境ができずにAI(Gemini CLI)が何度も「イライラします」と言っていたw
とりあえずパントマイムしてみた。
You can try this app in your web browser.
0003
This vibe coding is pretty basic. I made it so that when my slap my face, a wave effect appears on the video.
Actually, this effect only reacts to sound, though ;p
今日最後のvibe coding。音で映像にエフェクトをかけた。地味だけれど、試行錯誤で一番時間がかかった。しかも、リアルタイム処理しつつファイル録画する場合、エフェクト加工した映像ファイルと音声ファイルを最後に結合する処理になるのだけれど、加工処理の重さがエフェクトパラメタによるので、パラメタによって映像と音がずれることになる。なかなか難しい。
0002
I've displayed the edges of moving objects with red lines and made the background resemble the movie “The Matrix.”
これもvibeなコーディングで。
背景を「マトリックスみたいにカタカナ、数字、アルファベットの緑の反転文字が流れる感じで」みたいに指定するだけでできるのが嬉しい。カタカナは化けているけど。
ちゃんと指示すれば数分。適当にやり取りしても30分かからずにできるんだもんなあ。JitterやProcessingでもなかなかそうはいかない。
0001
The display is being delayed more toward the bottom of the screen.
昔ソニーかなんかの博物館で見た簡単な映像処理を試した。下のほうの画素になるほど遅れて表示されるというもの。
単純な処理だけれど、Mac Pro(2013)でリアルタイム処理は厳しいっぽい。