| |
create
|
18:41 25.12.2022 |
|
18:41 25.12.2022 |
|
№6167 |
Я просто выделил свойство случайности у новации. А правильное направление - это то, что потом подтверждается практикой. Не знаю какая там ассоциативность, но для меня факт, что в новациях присутствует элемент поиска, перебора, эксперимента, то есть некоего количества бит информации, которые требуется подобрать "из ничего". Но как правило, в реальных новациях одного хорошего учёного скрыто всего лишь несколько десятков-сотен бит информации. Именно поэтому мы так медленно движемся в развитии.
Резкий скачок в скорости развития произошел в средние века, во времена Галилея, когда тот возвел научный метод в ранг святых.
Диванные теоретики ИИ при этом игнорируют научный метод. Они игнорируют факты. Мракобесы.
|
| |
create
|
Получается диванные теоретики не игнорируют научные факты, я ошибался)))
|
| |
create
|
Мне больше нравится мысль, что я философ от ML-науки, хотя саму философию ненавижу. Можно сказать, что философ без вредных и глупых идей о многогранности истины. Даже о современную аналитическую философию мараться не хочу. Джон Сёрль, вон!
|
| |
create
|
19:06 25.12.2022 |
|
19:06 25.12.2022 |
|
№6173 |
У меня есть несколько бит информации, способные сделать диванных теоретиков более продвинутыми в ML (то есть в ИИ).
1. Нестандартные задачи нерешаемы. Существуют нерешаемые задачи, которые требуют слишком большого времени для нахождения правильного ответа. Этот процесс может затягиваться на тысячелетия. И никакой сильный интеллехт не поможет.
2. Нам нужен не сильный интеллехт, а средства решения повседневных задач. Интеллекты типа из фильмов "Трансцендентность", "Обитель зла", "Космическая одиссея" - фантазийная чушь. Создавать ИИ ради ИИ нет никакой экономической целесообразности. Если вы создадите СИИ, то он сможет лишь аккумулировать результаты анализа тех текстов/изображений/звуков/etc, которым его учили, но не более. См. п.1.
|
| |
create
|
Михайло, у нас тут есть специальный топик, в котором каждый может продемонстрировать своё самое правильное понимание интеллекта на конкретном "простеньком" примере. На сегодняшний день количество решений = 0. Думаю, будет хорошей традицией, прежде чем рассказывать про свою самую правильную теорию интеллекта, продемонстрировать как эта самая правильная теория работает на конкретном примере. Добро пожаловать.
|
| |
create
|
Egg, екарный бабай, иди играйся со своей ChatGPT, самой настоящей нейронной сеткой.
|
| |
create
|
Prosolver, хрен знает, что за специальный топик, но учитывая, что ИИ не способен решать любую задачу, то не следует указывать, какие задачи ИИ должен решать, а какие нет. Так понятно?)
Хотя Франсуа Шолле не должен лохануться и придумать какую-то хрень в отрыве от практики. Но на первый взгляд выглядит именно так.
|
| |
create
|
Михайло: ИИ не способен решать любую задачу, то не следует указывать, какие задачи ИИ должен решать, а какие нет. Так понятно? Нюанс состоит в том, что любой школьник решит эти задачки без труда. Если человек может без усилий их решить, а компьютер с усилиями не может решить, значит люди чего-то фундаментально не понимают о своём собственном устройстве (если бы понимали, то и компьютер заставили бы). Поэтому, прежде чем Вам рассуждать хоть о каком-то ИИ, покажите как Ваша теория решает эти простейшие задачки. Если нет, тогда все Ваши отсылы к научности - просто пустые лозунги.
|
| |
create
|
Prosolver: Нюанс состоит в том, что любой школьник решит эти задачки без труда.
Эти задачки неинтересные, бесполезные. Интересные - это написать сочинение. Не каждый школьник может такое. А как сделать это машиной - понятно.
|
| |
create
|
Egg: ... ChatGPT открывает эру NLI и это новая технологическая революция, которая имеет все признаки социальной, поэтому она будет иметь очень серьезные последствия.
В тему.
Какое подходящее слово: " социальной".
Чатбот это социальный уровень. И только социальный (так как являет нам единственное: оперирование социальным инструментом, ...одним из социальных средств коммуникации...).
Разум же это, во-первых, индивидуальность...
Каждый индивидуум переходит на социальный уровень.
Но.
Можно ли создать искусственный разум, "перескочив" этот уровень индивидуальности? Иными словами, можно ли объявить чатбота разумным? Вопрос, по-моему, риторический. Нет.
Или, все-таки: "В Начале Было Слово" ? )
|
| |
create
|
Egg:
Целеполагание, понимание и сознание
А что текое "понимание"? В предеметном контексте.
|
| |
create
|
Egg:
Целеполагание, понимание и сознание
Я бы начал с:
Созерцание
...что вы думаете о созерцании?
|
| |
create
|
Влад:
И чем, это чистейшей воды «кантианство», поможет в наделении Машины способностью понимания?
Давай просто поверим в это. Нейросети - это магия.
А как известно, всякое магическое приобретает новые свойства. Нейросети обладают необходимым пониманием. Это обеспечивается магией.
|
| |
create
|
Ну как еще внутреннее стяжательство мозгопоклонничества преодолеть? Это очень мощное когнитивное искажение.
|
| |
create
|
Egg:space:Egg:
Целеполагание, понимание и сознание
А что текое "понимание"? В предеметном контексте.
А что такое предеметный контекст? Предметный?
Понимание - это удерживание в сознании целостного образа вещи, в контексте сцены. Не деталей, свойств и признаков, а целостности. Я тут с ChatGPT сценарий детектива писал, путается она в здравом смысле. В логической цепочке на уровне двух-трех вложений вроде почти верно всё пишет, а может ошибиться в очевидных местах и сразу понятно, что она НЕ СТРОИТ МОДЕЛИ сцены и объектов, а обрабатывает свою общую базу знаний, в которой как-то помечает контекст. согласен, я того же мнения
|
| |
create
|
19:41 04.01.2023 |
|
19:43 04.01.2023 |
|
№6345 |
Egg:
Для меня созерцание - это одна из "форм" мышления... начальная стадия анализа сцены и "погружение" в задачу...
Начальная стадия... да, именно.
Можно попробовать очень грубо сложить начальную цепочку...
1. Восприятие + Отражение = Созерцание
2. Созерцание + Внимание = Память
3. Память + Ассоциации (та же память о других процессах) = Анализ
4. Действие. Как дополнительная ассоциация и неотъемлимая часть Анализа ( и неважно какое Действие.. наполнить желудок, поставить эксперимент или просто походить по комнате).
5. Встраивание результатов анализа и действий в "модель Мира" (..если встраивается. Это то, что вы назвали целостностью) = Понимание
...
Эта цепочка уточняема и детализируема.
Далее продолжать пункты не сто́ит. До Понимания бы дойти.
Чего-то не хватает... заглавия... Я бы эту цепочку озаглавил... "описание активности разума"... это, конечно, отличается от удобного механического подхода:
задача, входные данные, алгоритм вычисления на основе базы данных, выходные данные... )
|
| |
create
|
Egg:
З.Ы. И мне не понятно, почему Вы не упомянули таки сознание.
И мышление. А еще рациональность. А также логику, как же без нее? Эмоции - обязательно!
Называется это словозаборостроение.)))
Любой ученый сталкивается с тем, что он должен организовать/выстроить маркетинг исследования (цель, предмет, новизна, апробация).
Вы же исходите из того, что кто-то придумал понятие "ИИ, но только не узкий", и поклоняясь этому идолу, занимаетесь словозаборостроением. Вы не устали описывать свои мечты?)))
|
| |
create
|
Я инженер, разработчик систем, программист.
|
| |
create
|
Egg:
Вы очень много написали, это можно долго обсуждать.
Все написанное только для для того, чтобы определить место для Созерцания.
Хотя, любовь людей к геометрии.. указанию места... иногда пагубна для идеи.
К этому хотелось бы добавить свою догадку, что именно здесь, когда, на физическом уровне нейроны работают, восприятие присутствует, но память еще не включена, ...или уже отключена (...возможное, состояние медитации), т.к. внимания нет или оно рассеяно... именно здесь все моделирование разума... по традиции... сворачивает "не туда" )
Подозреваю, что и в вашей книге, где есть 1, 2, 3, ...но Созерцание отсутствует.
А что касается неупоминания... это что-то из области "Не поминай имя Господа всуе"...)
|
| |
create
|
Зомби.
Зомби это существо, функционирующее подобно человеку, но не имеющее сознания.
Например, ChatGPT подходит под определение зомби. Функционирует практически как человек в режиме письменного общения, но сознания не имеет.
Каждый проект по AGI это проект создания очередного зомби, создание объекта без сознания. Сложного объекта без сознания... с непонятной надеждой создателя, что этот объект обретёт сознание в будущем, после очередного усложнения. То есть создаётся нечто мертвое но функциональное, а сознание у него, якобы, должно появиться из ниоткуда.
Может ли зомби обрести сознание? Неужели сознание возникнет из сложности?
Если соединить десяток продвинутых проектов по AGI, создаст ли это необходимую сложность?
Иными словами, можно ли, соединив десяток зомби, получить осознающие себя существо?
Нет.
|
|
|