Форум создателей искусственных интеллектов


Логин (email) 
Пароль 
Настройки

Сообщения участника "Gray Tag"
1
2
3
4
5
6
7
8
9
10
11
12
Аватар
create
Интеллект на логическо-символьно-смысловой основе - это тупиковый путь
20:13 06.12.2025 №13358
А вот, собственно, статья David Silver, Richard S. Sutton "Welcome to the Era of Experience" https://storage.googleapis.com/deepmind-media/Era-of-Experience%20/The%20Era%20of%20Experience%20Paper.pdf
0 | 0
Аватар
create
Флудилка
01:12 07.12.2025 01:40 07.12.2025 №13363
Эта скотинка пока очередную порцию говна не выплюнет -- не сможет успокоиться, этот условный рефлекс я выработал у неё на 100%))) Ну и, если честно, с графоманским психодромом о мышлении луврика могут сравниться только работы Кости Вишневского))) Но я признателен, что луврик понимает свой уровень (доморощенного философа-графомана) и не лезет как раньше с обсуждениями))
0 | 0
Аватар
create
Энтропийная адаптивность
12:53 07.12.2025 13:07 07.12.2025 №13368
коитус:
Всё это про информацию и социальную коммуникацию
Нет, это вам показалось. Это всё как раз не про это))) Я вообще не использую термин "информация", если вы не заметили, термин значения и данные гораздо уместнее. Информация - это почти литературный (философский, популяризаторский) термин сейчас, он устарел, в математике и физике используется мало. Кибернетика и теория информации, которые развивал Шеннон, не прижились на древе науки. И я в этой теме говорю не о кодировании, а об восприятии.
коитус:
Полностью предсказуемое сообщение не несёт информации — получатель это уже знал, баян, сведения от "капитана очевидность".
В этом месте вы делаете принципиальную ошибку и снова возвращаетесь в кодирование. И русская пословица "повторенье -- мать учения" не пришла вам в голову. А это очень важно. 1) Формирование моделей мира у MVI-агента происходит между сенсорными и эффекторными маппингами, то есть любое воспринятое воздействие среды отображается в изменение внутреннего устройства. Понимание оно не в именованных смыслах, а в связях. 2) Самый простой пример - обучение нейронной сети, где одна и та же "информация" с каждым проходом меняет веса нейронов. Это и есть процесс обучения. Именно это сейчас и работает в LLM. 3) Пример посложнее - Гамлет Шекспира. Например. Может быть любая книга. Гамлет, прочитанный в детстве отличается по смыслу от Гамлета юношеского прочтения, и отличается от Гамлета взрослого. Понятно почему, да? Не изменяется текст, но изменяется читатель. В одну и ту же реку не то, что дважды не войти, в ОДНУ и ТУ ЖЕ нельзя войти даже один раз))) 4) Ну и самое сложное - "Attention Is All You Need" (перечитайте, кстати, хорошая статья). Процесс восприятия так устроен, что область внимания существует локально. Представьте себе, что у вас хорошие мониторы на ушах и вы сводите какую-то композицию. Первый раз вы слушаете бас, второй раз сакс, третий раз голос, четвертый раз тоже голос, но с концентрацией в произношение. И каждый раз -- это новая "информация". 5) Ну и последний аспект. Модель и Сложность. Представление - это модель. То есть некоторый текст (пусть и не на естественном языке, а на языке маппинга сенсоров). Проблема текста в том, что ни явление, ни смыслы не могут быть выражены на нем полно. И более того, нам нужна не полнота, а ее потеря. Именно потеря полноты позволяет нам производить абстрагирование с требуемой достаточностью и решать задачи.
0 | 0
Аватар
create
Энтропийная адаптивность
16:18 07.12.2025 16:21 07.12.2025 №13372
коитус:
По сути мы говорим об одном и том же, только вы гоните "информацию" как что то слишком попсовое, а я считаю, что его можно оставить, если не путать уровни.
Я думаю, что вы просто не очень хорошо понимаете, о чем именно я говорю. Если вы занимаетесь радиотехникой и системами связи, конечно, вам нет смысла менять свои представления о реальности. Но для тех задач, которые я пытаюсь решить - это слишком примитивные и устаревшие парадигмы.
коитус:
Трансформеры кстати не очень жалую, ну совсем алгоритм искусственный, режет глаз, как эпициклы, или тёмная материя, уверен вскоре накрутят что то более элегантное, как MLP
И снова я думаю, что вы просто не разобрались с трансформерами, иначе понимали бы, что это следующий уровень организации сетей -- MLP, декодеры, нормалайзеры, эмбеддинги, атеншены и прочие модули в трансформеры просто входят как части, что обеспечить главное - поведение трансформера как рекуррентного обработчика последовательности данных. Чего MLP (даже самому элегантному) просто не добиться в силу своей архитектуры)))
0 | 0
Аватар
create
Понимание и объяснение
18:40 07.12.2025 19:14 07.12.2025 №13373
Господа создатели искусственных интеллектов! На мой просвещенный вкус, процесс создания чего-то отдаленно Интеллектуального начинается с осознания нескольких фундаментальных "вещей": 1. Не существует самого правильного представления (о чем угодно) самого по себе. Не существует самого правильного описания мира. Не существует описания мира как он есть на самом деле. Не существует самой точной онтологии. Не существует абсолютных подходов и систем. Всякое представление комплементарно задаче, которую вы решаете. Представление это точно такой же инструмент как всё прочее. Другой, но тоже инструмент)) Представление может лучше или хуже подходить для решения задач, но не может быть верным или не верным самое по себе. 2. Именно поэтому и мнения разных людей не равны, поскольку одно может быть более полезным, чем другое (по отношению к задаче). 3. Именно поэтому "универсальные" решения слабополезны, а "специализированные" слабопонятны и узкоприменимы. 4. Ни одно представление не может точно и полно описать ни одно явление и ни одно понятие (иначе: ни одно явления, ни одно понятие не может быть полно выражены в моделе или языке). Нет реальности как материальности и нет солипсичности как осознанности. Всё это не более, чем представления, смотри пункт # 1 этого сообщения))) 5. Есть a) примат задачи, есть b) требования к ней, есть c) выбор инструментов, есть d) выбор маршрута решения, есть e) понимание качества решения как сравнения целевого состояния (которого нужно достичь) с текущим. И в этом месте происходит f) коррекция и адаптация всей цепочки решения a) - b) - c) - d) - e))) Давайте не будет возвращаться к этим очевидным и понятным вещам...
+1 | 0
Аватар
create
Исчисление Понимания
19:51 07.12.2025 №13374
ИСЧИСЛЕНИЕ ЗАДАЧНО-ОРИЕНТИРОВАННЫХ ПРЕДСТАВЛЕНИЙ (CaTOR) ЯЗЫК T — множество задач. R — множество представлений (моделей, онтологий, описаний). A — множество действий/решений. U(R, t) — полезность представления R при задаче t. Fit(R, t) — бинарный предикат «представление подходит для задачи». C(a, t) — достигнутое состояние действия a при задаче t. G(t) — целевое состояние задачи t. E(a, t) — ошибка решения: отклонение C(a, t) от G(t). АКСИОМАТИКА A1. Отсутствие абсолютной истинности представления ∀R ¬∃t (Fit(R, t) ∧ ∀t′ Fit(R, t′)) Нет представления, пригодного для всех задач. A2. Инструментальность представления ∀R ∃t : Fit(R, t) ↔ U(R, t)>0 Пригодность определяется только полезностью. A3. Неравенство моделей по эффективности ∃t ∃R1, R2 : U(R1, t) ≠ U(R2, t) Мнения и модели имеют различную ценность относительно задачи. A4. Ограниченность любого описания ∀R ∀X ¬(R полно описывает X) Формально как невозможность биекции между моделью и явлением: ∀R ∀X : ¬(R≡X) A5. Примат задачи ∀R ∀t : Fit(R, t) → t определяет критерий A6. Критерий качества — отклонение от цели ∀a ∀t : Quality(a, t) = f(E(a, t)), E(a, t) = dist(C(a, t), G(t)) A7. Цикличность решения (t → Req(t) → Sel(R ∣ t) → Path(t, R) → a → Eval(a, t)) где Eval(a, t) = E(a, t) A8. Адаптация E(a, t) > 0 → revise(t, Req, R, Path) ПРАВИЛА ВЫВОДА R1. Уточнение представления U(R2​, t) > U(R1​, t)​ -> Fit(R2, t) R2. Отбрасывание представления U(R, t) = 0​ -> ¬Fit(R, t) R3. Улучшение решения E(a, t) > E(a′, t) -> a′предпочтительнее a R4. Корректировка цепочки E(a, t) > 0 -> revise(⋅) ТЕОРЕМЫ T1. Не существует универсальной онтологии (из A1). T2. Полезность — единственный критерий выбора моделей (из A2 и R1). T3. Полное описание мира недостижимо (из A4). T4. Понимание — операционный процесс минимизации ошибки (Understanding(t) = min E(a, t)) T5. Различие «мнений» есть различие их полезности (из А3)
0 | 0
Аватар
create
Можно ли создать AGI
17:23 08.12.2025 17:32 08.12.2025 №13375
Забавно, что полемика вокруг возможности или невозможности создать AGI свелась к вопросу о малтивёрсе. Если малтивёрс существует и в каждом событийном акте вселенная расщепляется на состояния, численность которых равно всем вариантам продолжения, тогда AGI невозможен в принципе, поскольку будущее неисчислимо. Это, отчасти, перекликается к Теорией Струн, которые оказались слабоприменимы из-за наличия 10500 возможных состояний. Но если вселенная одна и материальна (или одна и солипсична, что эквивалентно), а биологические процессы -- это синергия химических, которые в свою очередь -- синергия физических, то AGI достижим, даже несмотря на аспекты запутанности, суперпозиции и коллапса волновой функции. Вот такая забавная альтернатива ))
0 | 0
Аватар
create
Можно ли создать AGI
18:47 08.12.2025 18:58 08.12.2025 №13377
fkoaafgp:
Это по сути тоже самое как спросить «как дальше жить»? Вот ответ
Вы говорите про трудную проблему сознания, я говорю об объективных и независимых от сознания вещах. О парадигмальных. Да и не задавал я никакого вопроса, а привёл как раз два ответа))) Попробуйте погуглить "Multiverse", чтобы попытаться хоть отчасти понять меня...
0 | 0
Аватар
create
Можно ли создать AGI
19:57 08.12.2025 19:59 08.12.2025 №13378
Вот главный ключ к пониманию этой проблематики (подсказка -- таким образом можно обойтись без целеполагания): Экспансия возникает тогда, когда в системе: • есть свободная энергия • есть неиспользованные степени свободы • существует механизм, который превращает энергию в изменение конфигурации
0 | 0
Аватар
create
Решатель ARC-задач Франсуа Шолле
19:12 11.12.2025 19:15 11.12.2025 №13382
mserg:
Результаты можно охарактеризовать как очередной обсёр.
Это вполне предсказуемо, соревнование на kaggle публичное, а уже никто не будет показывать код, даже Meta отказалась от такой практики, хотя декларировала таковые намерения. При этом, новая GPT-5.2 версия Pro преодолела порог 90%, набрав 90.5% на ARC-AGI-1. На ARC-AGI-2 у неё 52.9% Мне кажется, что это уже вполне человеческий результат... ))
0 | -1
Аватар
create
Решатель ARC-задач Франсуа Шолле
13:02 16.12.2025 №13384
mserg:
По-видимому результаты по GPT взяты отсюда:
Попробуйте научиться делать ссылки ссылками, а не текстом для копирования)))
0 | 0
Аватар
create
Можно ли создать AGI
11:10 20.12.2025 13:11 20.12.2025 №13417
fkoaafgp:
Например ... принцип наименьшего действия ... представляет собой строгую математическую версию бритвы Оккама, что подчёркивает универсальную тенденцию к минимизации ресурсов, сложности и информации, проявляясь на разных масштабах и связываясь с понятиями энтропии и колмогоровской сложности. Ну а гипотеза мультиверса ... предполагает экспоненциальное умножение реальностей с различными константами и исходами, что выглядит как радикальное нарушение принципа экономии... Вместо минимизации здесь происходит "экспоненциальный копипаст" нефальсифицируемых сущностей, не дающий новых проверяемых предсказаний и противоречащий наблюдаемой простоте законов.
Ровно наоборот. Гипотеза (а доказать (или просто проверить) мы ее тоже не можем, но только толковать свои ощущения)))) о существовании единственного материального мира требует очень много "неминимальных" допущений: 1) должна откуда-то взяться масса или энергия (несмотря на законы сохранения) 2) у каждый частицы (коих гуглиарды) где-то должен быть бортовой компьютер, который обсчитывает выполнение законов природы 3) все процессы рассеяния должны уметь решать NPC для своего поведения 4) эволюция (в формате "реального" мира) математически невозможна (и ее трудно объяснять людям, которые любят умножать вероятности)))), 5) итд, итп Вообще не понятно как это может реально работать)) Всё это настолько усложняет идилию сингл-версии вселенной как воплощения идей Оккама, что просто смешно это серьезно обсуждать Малтивёрс говорит вместо этого, что: 1) мир пуст, был пуст, есть пуст и будет пуст, всё сущее есть временная структурированная флуктуация пустоты, нет ни масс, ни частиц, ни объектов, есть суперпозиции и кластера неоднородностей, ничего кондового, только движение... 2) никто ничего не считает, никто ничего не выполняет, просто все процессы текут во всех ВОЗМОЖНЫХ направлениях, а невозможные просто схлапываются. Происходит фактический полный перебор вариантов с "одномоментным" действием фитнес-функции 3) решение NPC в такой постановке становится вырожденным 4) все нэгэнтропийные варианты содержатся в продолжениях малтивёрсных потоков, именно они закрепляются, становясь узлами для дальнейшей генерации, поскольку ЭНЕРГЕТИЧЕСКИ выгодны. Это и есть эволюция Только и именно в малтивёрсе идея минимизации ошибки (оккам, гамильтон, колмогоров, пригожин, кацнельсон, соломонофф) достигает своего полноценного воплощения
+1 | 0
Аватар
create
Можно ли создать AGI
22:49 20.12.2025 22:55 20.12.2025 №13419
fkoaafgp:
Тогда выходит, что в "начале" не было ни пустоты, ни времени в нашем понимании. Было некое не-состояние, потенциальность, что то совсем немыслимое, что не содержит даже отсутствие содержания, ну и которое — как виртуальная пара частица-античастица — флуктуационно "разошлось" на две противоположности: пространство и время.
Ну а теперь сделайте еще два допущения: вероятностные продолжения расходятся не на два противоположных, а на столько вариантов, сколько есть возможностей и это происходит всегда, а не только "в начале всего" -- и вы получите малтивёрс как он есть))) Ну и, конечно, время и пространство - это представления, они существуют только в головах))
0 | 0
Аватар
create
Можно ли создать AGI
12:23 21.12.2025 12:41 21.12.2025 №13421
fkoaafgp:
Оно конечно всё прикольно, но "воз и ныне там", как по мне. "Единое поле", "возмущение" и тп. по идее оно должно быть понятнее, а по моему просто заменили некое множество "фундаментальных сущностей" {a,b,c,…}(вроде огонь, вода, воздух...) на функции {f1(x),f2(x),f3(x)...}
Не заменили, а обобщили... точнее -- пытаются обобщить, получается пока не слишком успешно))) В этих местах нужно Тегмарка изучать с его гипотезой математической вселенной) Эпистемологическая ошибка рассуждений про физику и математику в том, что считается, что физика - это про реальный мир как он есть, а математика - это про идеализированные вымышленные объекты. Нет. Любой раздел физики и любая самостоятельная часть его - это тоже язык. Очень формальный как в квантовой механике или очень поэтический как в философских концепциях Аристотеля и Демокрита, которые можно считать предтечей научного метода. Но и то и другое - это про вымышленные объекты. Про представления. В основе науки лежат Парадигмы, которые состоят из трех слоев: объекты - тексты - смыслы. Смыслы содержат в себе правила оперирования объектами, объекты содержат в себе контекстный корпус смыслов. Тесты связывают первое со вторым, второе с первым. Да, парадигма логики или арифметики более формальна, чем парадигма строительства дома по архитектурному проекту. Но не более. Эта же схема работает и в LLM, ошибка понимания того как работает LLM в том, что подавляющее большинство людей, думают, что текстовые корпуса на естественном языке - это тексты LLM, а это не так. Тексты LLM - это предтренированные веса нейронов, корпуса ЕЯ - это объекты, а эмбеддинги - смыслы. Но схема точно такая же. Парадигмальная.
0 | 0
Аватар
create
Можно ли создать AGI
16:24 21.12.2025 16:36 21.12.2025 №13424
Каша какая-то у вас получилась, словно дипсик её писал))) 1. Выбор модели зависит от задачи и требований к ней. Всё. 2. Нет никаких экспериментов, которые бы "подтверждали" модели, есть модели, их решения и деятельность. Владимир Арнольд считал, что математика наука экспериментальная и является частью физики, был гением, это именно он в 19 лет решил ту самую 13ую проблему Гильберта. 3. Нет необходимости строить сложные системы, если можно генерировать максимально эффективные модели для конкретных задач. 4. Физика и математика устроены так, что невозможно написать самую правильную теорию мира как он есть на самом деле, а потом просто получить все следствия из неё. важное один важное два
+1 | -1
Аватар
create
Можно ли создать AGI
11:22 22.12.2025 13:56 22.12.2025 №13426
fkoaafgp:
Что там кто считал, его личные проблемы
Попробуйте применить эту формулу к своим рассуждениям))) Вижу, вы не понимаете моих аргументов, я не стану настаивать, это ваша голова, пусть она будет наполнена мифами и упрощенными представлениями. На уровне школьного природоведения, конечно, всё очень складно написано)) Но когда решаешь реальные задачи, то оказывается, что любой процесс измерения представляет собой модель. Нет никаких данных самих по себе как они есть на самом деле, чтобы только взять их и описать. Поверьте дипломированному физику -- электроны -- это не маленькие оранжевые шарики))
+1 | 0
Аватар
create
Можно ли создать AGI
19:19 23.12.2025 19:45 23.12.2025 №13429
гость 31.211.0.*:
Все модели неправильные, но некоторые из них полезны. Автора афоризма не помню.
Да, примерно так. Самый впечатляющий пример - это периметр любого объекта (тут еще придётся попыхтеть с определением такового, но пусть любое сечение трехмерного))). Он очень велик (почти бесконечен) для всякого самого простого, а в квантовом пределе - неопределен. И так во всём. Любая физическая величина - это почти философская категория, которая никогда не встречается в реальном мире, включая релятивистский интервал))
0 | 0
Аватар
create
Решатель ARC-задач Франсуа Шолле
11:15 29.12.2025 11:43 29.12.2025 №13434
Игорь Котенков, успешно практикующий дейтасаентист, инфлюэнсер пишет про АРК: "Про ARC-AGI и свою критику этого бенчмарка и мнений его автора, François Chollet (автор Keras), я писал много раз. Бенчмарк состоит из нескольких сотен визуальных головоломок с квадратиками разного цвета на сетке. Для каждой задачи дано 2-3 примера некоторого преобразования было -> стало, и предоставлен новый пример, для которого модели или системе нужно предсказать, каким должен быть результат. Для людей задачки достаточно простые — средний человек почти сходу решает 80%, а вот алгоритмы 3-4 летней давности едва ли брали двузначные процентов. С появлением рассуждающих моделей ARC-AGI 1 пал — o3-preview, представленная на декабрьском стриме, решала задачи лучше среднего человека. OpenAI пояснили, что модели учились на публично доступной части бенчмарка (что не запрещено — он для этого и дан), а организаторы добавили, что на решение затратили, по их подсчётам, миллион долларов в API-кредитах за LLM, потому что для каждой задачи o3-preview генерировала 1024 решения, а затем отсекала неправильные (не работающие для 2-3 данных примеров) и выбирала 2 самых частых ответа. Вот несколько цитат из оригинальной статьи 2019-го года, чтобы вспомнить контекст: — Мы утверждаем, что ARC может быть использован для измерения человекоподобной формы общего подвижного интеллекта и что он позволяет проводить честные сравнения общего интеллекта между ИИ и людьми — Мы постулируем, что существование программы, решающей ARC на уровне человека означало бы способность создавать ИИ на основе демонстраций (требуя лишь горстку примеров для спецификации сложной задачи) для решения широкого круга понятных человеку проблем (тут сложно не согласиться) — Насколько нам известно, к ARC невозможно подступиться с помощью какой-либо существующей техники машинного обучения (включая обучение нейросетей) из-за его фокуса на широком обобщении и обучении на малом количестве примеров Очень долго автор ходил с важным видом и говорил, что нейросети тут работать не будут. Потом пришли LLM и он говорил то же самое про них. Поверить, что o3-preview смогла решить было настолько сложно, что авторам пришлось придумывать много глупых ухищрений, включая обзывание LLM symbolic reasoners. У меня много критики и к бенчмарку, и к позиции авторов, но самое главное было то, что, как мне казалось, бенчмарк не решался LLM скорее из-за ограничения в работе с форматом поля из клеточек, которое к тому же требует очень длинного контекста (с которым модель хорошо работает). Невозможность решить задачу не являлось для меня аргументом к не-интеллекту LLM, так как проявление навыков было затруднено этими двумя вещами. И вот когда ARC 1 побили, выпустили ... ARC 2. Что в нём изменилось? Тезисно: — ... сделали сетку с клеточками большего размера (так что теперь нужно ещё больше токенов -> длиннее контекст) — ... больше объектов в сетке — многие задачи «сложнее», так как требуют комбинацию из 2-3 паттернов, а не 1 И вот с выходом моделей последнего поколения, Gemini 3 Pro и GPT-5.2, и на этом бенчмарке уровень людей был превзойдён. Стартап Poetiq сделали унифицированную систему (набор промптов и немного кода, см. тут), которая можешь запускаться на любой LLM. Но ясно, что чем лучше сама базовая модель, тем выше качество, сами они по сути сделали очень мало. Получается, что такой результат это в большей степени заслуга Google и OpenAI (GPT-5.2 X-High там вообще какой-то безумный скор показала). Это они натренировали модели, готовили данные, придумывали алгоритмы. Почти наверняка они использовали подходы, схожие с топ-решениями соревнования ARC на Kaggle. Основная фишка там — это сгенерировать огромное множество искусственных примеров задач и учить модель на них в попытке показать как можно больше вариаций паттернов, которые могут встретиться в тестовой выборке. По сути, это просто пайплайн генерации синтетики + обучение на нём, помимо других задач. И поскольку эти пайплайны могут существенно отличаться, то сложно сказать, у какой из команд лучше именно алгоритм обучения рассуждениям. В модель втренировывают все вариации задач. Отсюда ясно, что настоящий инсайд результатов ARC AGI — это наличие алгоритма тренировки и базовой модели, которые позволяют для некоторого класса задач за относительно недлинный промежуток времени очень прокачать качество. Главное что компании должно быть это интересно (а не просто считать буквы в словах). Другими словами, если OpenAI считают, что выполнение задачи X принесёт большую ценность, то они берут, тратят миллионы долларов на сбор и разметку данных, учат модель, то сё, и вот навык существенно прокачивается. Не до 100%, и иногда даже не сразу до человеческого уровня, но скачок заметный. И затем за ~год научиться это делать гораздо более эффективно (не за миллион долларов, а за тысячи). Так что бенчмарки ARC AGI 1 и 2 во многом считаю бесполезными, но при этом некоторым proof-of-concept для проверки алгоритма обучения. Но если задаться целью проверять именно это, то может быть есть куда более интересные и ценные направления? ARC AGI 3 немного изменит подход, но по мне так это снова банальное усложнение через увеличение количества клеточек. В третьей версии будут интерактивные игры, где система должна делать ходы (прям нажимать вверх-вниз-влево-вправо) и за несколько попыток понять правила игры и пройти несколько уровней. Пожалуй, это позволит протестировать ещё более длинные контексты (теперь вход в модель для рефлексии - это не одно поле, не набор пар, а длинная череда слепков поля и действий), а также навык выведения правил игры в рамках одной сессии. Но можно ли это проверять как-то по другому, и без, блин, полей в клеточку 60x60, которые занимают 3600 токенов ~= 9 страниц текста на КАЖДЫЙ слепок? А то основные навыки у моделей будут, а потом окажется, что не можем решить задачи из-за ошибок в распознавании пикселей на картинке."
0 | 0
Аватар
create
Решатель ARC-задач Франсуа Шолле
00:22 01.01.2026 00:31 01.01.2026 №13436
mserg:
Цель состоит в том, чтобы решать задачи, для которых нет примеров в обучающей выборке. В идеальном случае, известны общие условия задачи (ограничения на размеры входных и выходных матриц, и ограничения на значения элементов матриц), и нет ни одного обучающего примера.
Бред о том, что ИИ решает задачи только из обучающей выборки вы повторяете уже третий год 😂
0 | 0
Аватар
create
Решатель ARC-задач Франсуа Шолле
02:23 01.01.2026 10:41 01.01.2026 №13438
mserg:
Руками написать парсеры, паттерны, генераторы, и т.д. , скрестить с LLM, и т.п.
Да, да, да. Везде, во всех прочих задачах все программисты уже два года ничего такого нижнего уровня не пишут сами, а работают с моделями и только в этой задаче нужно всё писать руками, самые простые вещи 😂 И только mserg об этом знает))
0 | 0
1
2
3
4
5
6
7
8
9
10
11
12

Главная Участники Жалобы  Поиск Исходный код О форуме