Skip to content

Latest commit

 

History

History
144 lines (102 loc) · 9.49 KB

File metadata and controls

144 lines (102 loc) · 9.49 KB

🇬🇧 English🇨🇳 中文🇯🇵 日本語🇰🇷 한국어🇧🇷 Português🇪🇸 Español🇩🇪 Deutsch🇫🇷 Français🇮🇳 हिन्दी🇹🇷 Türkçe

Entroly

Entroly — Сокращение расходов на токены ИИ на 70–95%

Ваши инструменты ИИ видят только 5% кодовой базы.
Entroly даёт им полную картину — за малую долю стоимости.

npm install entroly-wasm && npx entroly-wasm  |  pip install entroly && entroly go  |  Живая демо →


Проблема — и влияние на результаты

Каждый инструмент ИИ — Claude, Cursor, Copilot, Codex — имеет одну и ту же слепую зону: видит только 5–10 файлов за раз. Остальные 95% кода невидимы.

Модели продолжают расти — только что вышел Claude Opus 4.7 с ещё большими возможностями и ещё более высокой стоимостью за токен. Большие контекстные окна не решают проблему; они делают её хуже. Вы платите за 186 000 токенов за каждый запрос — большая часть которых просто дублирующийся шаблонный код.

Entroly решает обе проблемы за 30 секунд.


Что меняется в первый день

Метрика До Entroly После Entroly
Файлы, видимые ИИ 5–10 Весь репозиторий
Токены за запрос ~186 000 9 300 – 55 000
Ежемесячные расходы на ИИ (1K запросов/день) ~$16 800 $840 – $5 040
Точность ответов ИИ Неполная, часто галлюцинации С учётом зависимостей, корректная
Время разработчика на исправление ошибок ИИ Часы/неделя Почти ноль
Настройка Дни промпт-инженерии 30 секунд

ROI: Команда из 10 человек, тратящая $15K/месяц на API ИИ, экономит $10K–$14K/месяц в первый же день.


Что уже знают ваши конкуренты

Команды, внедряющие Entroly сегодня, не просто экономят — они накапливают преимущество, которое ваша команда не сможет догнать.

  • Неделя 1: Их ИИ видит 100% кода. Ваш — 5%. Они доставляют быстрее.
  • Месяц 1: Их среда выполнения выучила паттерны кода. Ваша всё ещё галлюцинирует imports.
  • Месяц 3: Их инсталляция подключена к федерации — поглощает стратегии оптимизации от тысяч команд по всему миру. Вы даже не знаете, что это существует.
  • Месяц 6: Они сэкономили $80K+ на API. Бюджет пошёл на найм. Вы всё ещё объясняете финансистам, почему счёт за ИИ продолжает расти.

Каждый день ожидания увеличивает разрыв. Эффект федерации означает: ранние пользователи становятся сильнее быстрее — и это преимущество растёт по формуле сложных процентов.


🌐 Федеративное роевое обучение — часть, которая звучит как научная фантастика

Возьмите Цикл сновидений и умножьте на каждого разработчика на Земле, использующего Entroly.

Пока вы спите, ваш демон видит сны — и 10 000 других тоже. Каждый находит чуть другие приёмы сжатия кода. Каждый анонимно делится тем, что узнал. Каждый поглощает находки остальных.

Вы просыпаетесь. Ваш ИИ стал умнее, чем вчера. Не потому что вы что-то сделали — потому что рой так увидел во сне.

Ваш демон видит сон  находит лучшую стратегию  делится (анонимно)
     
10 000 других демонов сделали то же самое прошлой ночью
     
Вы открываете ноутбук  ваш ИИ уже всё впитал

Сетевой эффект:

  • Каждый новый пользователь делает ИИ всех лучше — эту базу пользователей нельзя форкнуть
  • Стоимость инфраструктуры: $0. Работает на GitHub. Без серверов. Без GPU. Без облака
# Opt-in — всегда ваш выбор
export ENTROLY_FEDERATION=1

🔒 Работает локально. Ваш код никогда не покидает вашу машину.

Работает в изолированных и регулируемых средах — никакие данные никогда не отправляются наружу.


Бенчмарки

Сохранение точности

Сжатие не влияет на точность — проверено через live API (gpt-4o-mini, Wilson 95% CI):

Бенчмарк n Бюджет Базовый (95% CI) С Entroly (95% CI) Сохранение Экономия токенов
NeedleInAHaystack 20 2K 100% [83.9–100%] 100% [83.9–100%] 100.0% 99.5%
LongBench (HotpotQA) 50 2K 64.0% [50.1–75.9%] 68.0% [54.2–79.2%] 106.2% 85.3%
Berkeley Function Calling 50 500 100% [92.9–100%] 100% [92.9–100%] 100.0% 79.3%
SQuAD 2.0 50 100 78.0% [64.8–87.2%] 76.0% [62.6–85.7%] 97.4% 39.3%
GSM8K 100 50K 85.0% [76.7–90.7%] 86.0% [77.9–91.5%] 101.2% pass-through¹
MMLU 100 50K 82.0% [73.3–88.3%] 85.9% [77.8–91.4%] 104.7% pass-through¹
TruthfulQA (MC1) 100 50K 72.0% [62.5–79.9%] 73.7% [64.3–81.4%] 102.4% pass-through¹

¹ pass-through: Контекст уже в пределах бюджета — Entroly правильно ничего не делает. Доверительные интервалы перекрываются на всех бенчмарках.

Сравнение с другими методами (длинный контекст)

Метод Сохранение Сокращение токенов Архитектура / Компромиссы
Entroly 100–106% 85–99% Быстрый (~80мс). Knapsack на уровне фрагментов. Идеальная дословная структурная точность.
Нейронная обрезка на уровне токенов ~98–99% 80–95% Высокие накладные расходы. Требуется локальный transformer. Повреждает синтаксис кода.
Правиловая дословная компактификация ~100% 50–70% Высокая точность. Но меньшее сокращение токенов.
Компрессия на основе внимания 95%+ 26–54% Надёжная точность. Но меньшее сокращение токенов.

Полная паритетность: Python & Node.js

Возможность Python Node.js (WASM)
Сжатие контекста
Самоэволюция
Цикл сновидений
Федерация
Дистилляция ответов
Чат-шлюзы
Экспорт agentskills.io

Перестаньте платить за токены, которые ваш ИИ тратит впустую. Запустите ИИ, который учит себя сам.
npm install entroly-wasm && npx entroly-wasm  |  pip install entroly && entroly go