ローカル AI ツール
無料オンライン ローカルAIコ ード修復
小さな HTML、CSS、JS、JSON の壊れた断片をブラウザ内で私的に修復します
プライベートなコード修復
コードはローカル修復、検証、説明の間ずっとブラウザ内に留まります。アカウント不要、アプリサーバーへのアップロードなし、共有履歴もありません。
ブラウザ内ローカル runtime
初回実行ではモデル配布元からモデルファイルを取得する場合があります。その後はブラウザキャッシュでローカル修復資産をより安定して再利用できます。
量子化 Llama メモ
このツールは量子化 Llama 風のローカル修復ワークフローと軽量な構文ヒューリスティックを組み合わせ、小さな HTML、CSS、JavaScript、JSON 断片をアプリサーバーに送らず修復します。
壊れたコード断片
小さな HTML、CSS、JS、JSON の壊れた断片をブラウザ内で私的に修復します
短いメモがあると、ローカル修復ワークフローが非開発者向けにより分かりやすく説明できます。
入力行数: 0
修復設定
断片タイプを選び、必要なら平易なヒントを追加して、ブラウザ内でローカル修復を実行します。
壊れたコード片を貼り付け、種類を選ぶか自動判定に任せ、必要なら問題を短く説明してから、アプリサーバーに送らずにローカル修復を実行します。
結果は私的なローカル草稿として扱ってください。実際のページやアプリ文脈で再テストしてから使うべきです。
壊れたコード片を貼り付けてローカル修復を開始します。0%
修復済み断片
修復済みコード、平易な説明、検証メモを確認してから再利用してください。
ローカル修復が終わると、修復済みコードがここに表示されます。
修復内容
ローカル修復ワークフローが行った主な変更点です。
修復メモと警告は、ローカル修復後ここに表示されます。
クイック検証
これらの簡易チェックは、非開発者でも修復後断片の構造がより安全そうかを確認する助けになります。
ローカル修復後、検証結果がここに表示されます。
実行統計
ローカル修復モデル、断片タイプ、現在のオフライン対応状態を素早く確認できます。
オフライン runtime
WASM
スコープ付き service worker
Service worker は利用できません
モデルプロファイル
初回実行時に読み込み
判定モード
自動判定
入力行数
0