弾きながら音が整っていく
1Take v1.4 に AI 自動最適化を追加しました。録音中にリアルタイムで音を解析して、EQ・コンプレッション・インプットトリム・サチュレーションを自動で調整します。セッションを止めて設定を触る必要はありません。
ただの音量ノーマライザーではありません。その録音の音の性格を読んで、そのテイクに合ったパラメータを選びます。
何を調整するか
4 つの処理段階。それぞれライブの音声信号を見ながら動きます。
EQ
FFT で問題のある帯域を特定します。低中域のこもり、高中域の刺さり、部屋の共鳴。バンドごとに周波数とゲインを両方調整するので、カットもブーストも必要な場所に当たります。
コンプレッション
録音全体のダイナミクスレンジを継続的に計測します。音源の性質に合わせてスレッショルド・アタック・リリースを決めます。自然なレンジに収まっているボーカルにはゆるめの設定、トランジェントが鋭い楽器にはタイトな設定を使います。
インプットトリム
ノイズフロア検出と LUFS 計測を組み合わせてレベルを判断します。クリッピングを防ぎ、ミックスで使えるヘッドルームが残るよう、トリム値を調整します。
サチュレーション
薄くて無機質に聞こえる録音には、少量のハーモニックサチュレーションが効きます。スペクトル密度と倍音成分を確認してから適用するので、歪みではなくプレゼンスとして出ます。
変更はすべて見える
AI が触ったパラメータは録音詳細ビューにインラインで表示されます。変更前の値と変更後の値が並んで表示されるので、何が変わったかすぐわかります。納得できなければ手動で上書きできます。4 つの処理段階すべてが表示対象です。
意図的にこう設計しました。何をしているかわからない AI 処理は使いにくいだけです。
過去のテイクから学習する
毎回ゼロから判断するわけではありません。特定のプリセットで、ある EQ のアプローチが繰り返し良い結果を出している場合、そのパターンが次のセッションの出発点に反映されます。
使えば使うほど精度が上がる仕組みです。最初のセッションは汎用エンジンで動き、重ねるほど自分の部屋とセットアップに合った判断になっていきます。
DAW 連携: markers.json
テイクをエクスポートすると、markers.json に AI が行ったパラメータ変更の完全なログが含まれます。解析したファイル名、各パラメータ、変更前と変更後の値がセットで記録されます。
DAW に持ち込んだとき、1Take が何をしたか確認できます。プラグインチェーンを合わせるもよし、参考情報として使うだけでもよし。
| フィールド | 説明 |
|---|---|
analyzedFile |
解析対象の録音ファイル名 |
parameter |
調整されたパラメータ |
previousValue |
最適化前の値 |
newValue |
最適化後の値 |
仕組みの概要
解析はすべてデバイス上で、録音中に実行されます。3 つの計測システムが動いています。
- スペクトル解析 — FFT でスペクトル全体のエネルギー分布をリアルタイムに読み、EQ の判断に使います
- ノイズフロア検出 — 静寂区間のノイズレベルを計測し、ゲインとトリムの基準を決めます
- LUFS 計測 — 放送やストリーミングのリファレンスレベルと照合しながらラウドネスを追跡し、コンプとトリムを調整します
音声データは外部に送信されません。すべてローカル処理です。
有効にする方法
- 1Take の設定を開く
- 録音をタップ
- AI 自動最適化をオンにする
オンにすると、以降の新規録音で自動的に動きます。既存の録音は変更されません。過去のテイクに適用したい場合は、詳細ビューを開いて手動最適化オプションを使ってください。