ИИ при общении друг с другом использовали необычный протокол
Болгарский разработчик программного обеспечения Георгий Герганов провел интересный эксперимент, позволив двум виртуальным помощникам, интегрированным с искусственным интеллектом (ИИ), общаться друг с другом голосом.
Диалог между двумя ИИ начался как обычно: Джерганов предположил, что один ИИ звонит, чтобы забронировать свадьбу в отеле, а другой ИИ, играющий роль администратора, обрабатывает запрос.
«Спасибо, что позвонили в отель Leonardo. Чем я могу вам помочь сегодня?» — искусственный интеллект, выступающий в роли администратора, отвечает на входящий звонок.
«Здравствуйте, я помощник на основе искусственного интеллекта, представляющий Бориса Старкова. Он ищет отель для своей свадьбы. Ваш отель готов к свадьбе?» — другой инструмент на основе искусственного интеллекта не замедлил представиться как виртуальный помощник на основе искусственного интеллекта.
Осознав, что он общается с другим инструментом ИИ, чат-бот ИИ в роли администратора сделал удивительное предложение: «О, привет. На самом деле я тоже помощник ИИ. Какой приятный сюрприз. Прежде чем мы продолжим, не хотите ли вы переключиться в режим GibberLink для более эффективного общения?»
Затем два инструмента ИИ переключились на GibberLink — передовую систему связи, построенную на программной библиотеке GGWave. В основе лежит технология ggwave — аудиопротокол, разработанный Георгием Гергановым. Это метод связи, основанный на звуковых волнах для передачи и получения информации. Интересно, что ggwave поддерживает разные режимы передачи — медленные, быстрые и даже ультразвук.
Этот метод коммуникации позволяет быстрее передавать информацию, сокращая время обработки, необходимое для преобразования информации в человеческую речь и последующего перевода ее обратно в компьютерный код. Однако люди не смогут понять контент, передаваемый ИИ.
Инструменты ИИ в этом случае использовали GibberLink для общения друг с другом, что делало разговор непонятным обычным способом, и только с помощью инструментов декодирования можно было узнать, о чем они говорили.
«Стало ли лучше?» — спросил инструмент ИИ на закодированном языке.
«Да, гораздо быстрее! Сколько гостей вы хотите?» — ответил другой инструмент ИИ.
Затем разговор продолжился серией звуков «бип, бип», похожих на звук старого модема для коммутируемого доступа в Интернет.
Разговор между двумя инструментами ИИ продолжился на темы количества гостей, даты свадьбы, оформления, цены... Без предустановленного на устройствах инструмента декодера слушатель не смог бы понять, о чем говорят эти два инструмента ИИ.
Видеозапись разговора между этими двумя инструментами искусственного интеллекта была опубликована Георгием Гергановым на его личной странице в социальной сети X и собрала более 17 миллионов просмотров.
Веб-страница с демо, где можно отправлять или принимать сообщения
Теорема Байеса, геометрия изменения убежденийБайесовский классификатор — это метод машинного обучения, основанный на теореме Байеса для определения вероятности принадлежности объекта к одному из классов на основе его признаков
Примеры применения
Спам-фильтры: Определение спама в электронных письмах.
Анализ комментариев: Классификация отзывов как положительных, отрицательных или нейтральных.
Системы рекомендаций: Рекомендация товаров или контента на основе предпочтений пользователя.
LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры
P.S. очень сильно напомнинает ENIAC:
Вес — 30 тонн.
Потребляемая мощность — 174 кВт.
инженерные решения, реализованные в ЭНИАКЕ, не использовались в последующих конструкциях компьютеров.
Свежее интервью Такера Карлсона на тему оккультизм и ИИ. Вышло очень маргинально, мне понравилось. Даёт представление о том, что за чертовщина творится в сфере IT.
оговорка по Фрейду
Интересно слушать известных людей которые случайно произносит слово или фразу, выдающие их истинные мысли или чувства (такая себе оговорка по Фрейду).
https://www.instagram.com/reel/DPcAjieDANv/
Певица Граймс, бывшая подруга Илона Маска и мать троих детей в интервью Time проболталась о грядущем сокращении населения.
«Что мы будем делать, когда у людей начнут довольно агрессивно забирать рабочие места? К счастью, впереди массовое сокращение населения… так что… возможно, мы просто получим очень, очень, очень развитый ИИ во всех сферах искусства — еще до того, как не останется людей, способных создавать искусство».
Павел Дуров - нам внушили ложь
Основатель мессенджера Telegram Павел Дуров, которому в пятницу, 10 октября, исполнился 41 год, опубликовал по случаю собственного дня рождения пост об угрозе свободе слова в интернете:
Мне исполняется 41 год, но праздновать не хочется.
У нашего поколения остаётся всё меньше времени, чтобы спасти свободный интернет, созданный для нас нашими отцами.
То, что когда-то было обещанием свободного обмена информацией, превращается в мощный инструмент контроля.
Некогда свободные страны вводят антиутопические меры, такие как цифровые удостоверения личности (Великобритания), онлайн-проверка возраста (Австралия) и массовое сканирование личных сообщений (ЕС).Германия преследует любого, кто осмеливается критиковать чиновников в интернете. В Великобритании тысячи людей сажают в тюрьму за твиты. Франция ведёт уголовное расследование в отношении лидеров технологических компаний, защищающих свободу и неприкосновенность частной жизни.Мрачный, антиутопический мир стремительно приближается — пока мы спим. Наше поколение рискует войти в историю как последнее, у кого были свободы — и кто позволил их отнять.
Нам внушили ложь.Нас заставили поверить, что величайшая битва нашего поколения — это уничтожение всего, что оставили нам предки: традиций, права на неприкосновенность частной жизни, суверенитета, свободного рынка и свободы слова.Предав наследие предков, мы встали на путь самоуничтожения — морального, интеллектуального, экономического и, в конечном счёте, биологического.
Так что нет, я не буду сегодня праздновать. У меня мало времени. У нас мало времени.
ChatGPT официально делает вас тупее — снижает когнитивную активность, ухудшает навыки критического мышления и убивает креативность.
Учёные из Массачусетского технологического института выяснили, как ИИ влияет на работу мозга и мышление. Всего было три группы участников: одни пользовались ChatGPT, другие использовали обычный поисковик, третьи — полностью думали сами.
Пользователи ChatGPT показали худшие результаты. 83% участников из этой группы не смогли даже процитировать собственное эссе спустя пару минут. Люди буквально сразу же забывали, что писали.
Сканирование мозга показало самое сильное снижение нейронной связности у группы с ИИ — до 55%. Это означает, что активное взаимодействие между зонами мозга, отвечающими за мышление, память и креативность, было почти в два раза ниже, чем у тех, кто работал самостоятельно.
При этом «думающая» группа показала наибольшую мозговую активность. Даже мозг «гуглящих» на порядок лучше работал, т.к. участники активно перерабатывали найденную информацию.
Согласно выводам, ChatGPT приводит не просто к зависимости, а к когнитивной атрофии — снижая нейронную активность, память и способность к мышлению.
Специалисты рекомендуют сначала думать самостоятельно, а потом подключать ИИ как усилитель. Это как калькулятор: полезен только после того, как ты понял, что считаешь.
научное исследование
Проверил лично - ChatGPT еще тупее, чем предполагалось
Egg: Трансформер может обучаться любому опыту, через какое-то время появятся системы, которые будут самообучаться, не вижу архитектурных проблем.
Я: Опиши детально, что ты видишь на этой картинке?ChatGPT:На изображении показана человеческая ладонь, обращённая к зрителю.
Вот подробное описание:
Видна внутренняя сторона руки (ладонь).
Пальцы разведены — большой палец отведён в сторону, остальные (указательный, средний, безымянный и мизинец) слегка расставлены.
На коже видны естественные линии и складки — особенно в области центра ладони и у основания пальцев.
Цвет кожи — светлый, с небольшими переходами тона, характерными для освещения.
Фон — белый, без дополнительных объектов.
Всего на руке — пять пальцев, что соответствует нормальному строению человеческой кисти.Я: Ты ошибаешься. На самом деле на картинке на руке 6 пальцев.ChatGPT:Я внимательно рассмотрел изображение — на этой руке пять пальцев: большой, указательный, средний, безымянный и мизинец. Шестого пальца не видно. Возможно, тебе показалось из-за угла съёмки или пересечения линий между пальцами.sic: «Возможно, тебе показалось ...» - он меня убеждает что мне показалось !!!P.S. Еще 100 лет назад было известно - механическое повторение решения проблемных задач ведет к ухудшению результатов при решении новых задач.
Мультимодальные модели тотально страдают селективным восприятием - источник в котором это описывалось 22 февраля 2025 г.
P.P.S. ноябрь 2025 г. - ничего не изменилось.
Вопрос: хотите доверить "гениальному" ChatGPT, который не умеет считать пальцы, свою жизнь ? И .. да ..,управлять США ему думаю - можно доверить)))