1. Доска предназначена для любых обсуждений нейросетей, их перспектив и результатов.
2. AICG тред перекатывается после достижения предела в 1500 постов. NAI тред перекатывается после 1000 поста. Любители чрезмерно самовыделиться идут в /asylum/.
3. Срачи рукотворное vs. ИИ не приветствуются. Особо впечатлительные художники и им сочувствующие катятся в собственный раздел => /pa/. Генераций и срачей в контексте всем известных политических событий это тоже касается, для них есть соответствующие разделы.
4. Это доска преимущественно технического направления. Для откровенного NSFW-контента выделена отдельная доска - /nf/, эротика остаётся в /ai/. Так, порнография и голые мужики теперь отправляются в /nf/. Фурри - в /fur/. Гуро и копро - в /ho/.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2-х бит, на кофеварке с подкачкой на микроволновку.
Базовой единицей обработки любой языковой модели является токен. Токен это минимальная единица, на которые разбивается текст перед подачей его в модель, обычно это слово (если популярное), часть слова, в худшем случае это буква (а то и вовсе байт). Из последовательности токенов строится контекст модели. Контекст это всё, что подаётся на вход, плюс резервирование для выхода. Типичным максимальным размером контекста сейчас являются 2к (2 тысячи) и 4к токенов, но есть и исключения. В этот объём нужно уместить описание персонажа, мира, истории чата. Для расширения контекста сейчас применяется метод NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества.
Текущим трендом на данный момент являются мультимодальные модели, это когда к основной LLM сбоку приделывают модуль распознавания изображений, что в теории должно позволять LLM понимать изображение, отвечать на вопросы по нему, а в будущем и манипулировать им.
Основным представителем локальных моделей является LLaMA. LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3 (по утверждению самого фейсбука), в которой 175B параметров. Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2.
Сейчас существует несколько версий весов, не совместимых между собой, смотри не перепутай! 0) Оригинальные .pth файлы, работают только с оригинальным репозиторием. Формат имени consolidated.00.pth 1) Веса, сконвертированные в формат Hugging Face. Формат имени pytorch_model-00001-of-00033.bin 2) Веса, квантизированные в GGML/GGUF. Работают со сборками на процессорах. Имеют несколько подформатов, совместимость поддерживает только koboldcpp, Герганов меняет форматы каждый месяц и дропает поддержку предыдущих, так что лучше качать последние. Формат имени ggml-model-q4_0, расширение файла bin для GGML и gguf для GGUF. Суффикс q4_0 означает квантование, в данном случае в 4 бита, версия 0. Чем больше число бит, тем выше точность и расход памяти. Чем новее версия, тем лучше (не всегда). Рекомендуется скачивать версии K (K_S или K_M) на конце. 3) Веса, квантизированные в GPTQ. Работают на видеокарте, наивысшая производительность (особенно в Exllama) но сложности с оффлоадом, возможность распределить по нескольким видеокартам суммируя их память. Имеют имя типа llama-7b-4bit.safetensors (формат .pt скачивать не стоит), при себе содержат конфиги, которые нужны для запуска, их тоже качаем. Могут быть квантованы в 3-4-8 бит (Exllama 2 поддерживает адаптивное квантование, тогда среднее число бит может быть дробным), квантование отличается по числу групп (1-128-64-32 в порядке возрастания качества и расхода ресурсов).
Основные форматы это GGML и GPTQ, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGML весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной. В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090. Даже если использовать сборки для процессоров, то всё равно лучше попробовать задействовать видеокарту, хотя бы для обработки промта (Use CuBLAS или ClBLAS в настройках пресетов кобольда), а если осталась свободная VRAM, то можно выгрузить несколько слоёв нейронной сети на видеокарту. Число слоёв для выгрузки нужно подбирать индивидуально, в зависимости от объёма свободной памяти. Смотри не переборщи, Анон! Если выгрузить слишком много, то начиная с 535 версии драйвера NVidia это серьёзно замедлит работу. Лучше оставить запас.
Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется!
Для удобства можно использовать интерфейс TavernAI 1. Ставим по инструкции, пока не запустится: https://github.com/Cohee1207/SillyTavern 2. Запускаем всё добро 3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001 4. Активируем Instruct Mode и выставляем в настройках пресетов Alpaca 5. Радуемся
>>559496 > Там можно спокойно сидеть даже в рп, настроек куча Не, уровень слишком разный, в убе хотябы дополнительный интерфейс для "работы" есть, а так это что-то уровня "можно спокойно жить в коробке из под холодильника". >>559510 > Если почекать документацию можно решить проблему. Непривычно даже как-то. Оно обычно так много где, даже в кривом динамически развивающимся опенсорсе.
>>559503 Бля окей снова вернулся к этой проблеме. Куда вписывать командные аргументы? Без потока неудобно пиздец. Сидишь ждешь как еблан. А так прикольная штука эта ваша таверна.
Stable Diffusion тред X+56 ====================================== Предыдущий тред >>547173 (OP)https://arhivach.top/?tags=13840 ------------------------------------------ схожие тематические треды - технотред >>543635 (OP) - NAI-тред (аниме) >>545061 (OP) ======================== Stable Diffusion (SD) - открытая нейросеть генеративного искусства для создания картинок из текста/исходных картинок, обучения на своих изображениях. Полный функционал в локальной установке (см. ниже)
⚠️ Стандартные модели stable diffusion (v1.4 - v2.1) от Stability AI значительно отстают по качеству от кастомных моделей (см. ниже). Модели SD XL ставятся и запускаются так же как и любые другие модели SD.
И что я делаю не так? Картинка там, само собой, загружена, просто показывать не хочу Почему он мне вырезает только фрагмент исходника, и по нему пытается лицо сделать (очевидно, неудачно)
Насколько реально делать видео в 25 кадров (6 фпс) в разрешении 512х1024 примерно с видеопамятью 6 гб? Это возможно вообще?
Насчет времени похуй, пусть хоть 3 часа генерируется, вопрос сам в возможности вообще это делать и не охуеет ли видео дифьюжен от такого малого количества видеопамяти. Оперативы 32 гб если что.
2. Преобразуешь дорожку с вокалом к нужному тебе голосу через RVC
3. Объединяешь дорожки при помощи Audacity или любой другой тулзы для работы с аудио
Опционально: на промежуточных этапах обрабатываешь дорожку - удаляешь шумы и прочую кривоту. Кто-то сам перепевает проблемные участки.
Качество нейрокаверов определяется в первую очередь тем, насколько качественно выйдет разделить дорожку на составляющие в виде вокальной части и инструменталки. Если в треке есть хор или беквокал, то земля пухом в попытке преобразовать это.
Нейрокаверы проще всего делаются на песни с небольшим числом инструментов - песня под соло гитару или пианино почти наверняка выйдет без серьёзных артефактов.
Q: Хочу говорить в дискорде/телеге голосом определённого персонажа.
Тред по вопросам этики ИИ. Предыдущий >>320984 (OP) Из недавних новостей:
- Разработанная в КНР языковая модель Ernie (аналог ChatGPT) призвана "отражать базовые ценности социализма". Она утверждает, что Тайвань - не страна, что уйгуры в Синьцзяне пользуются равным положением с другими этническими группами, а также отрицает известные события на площади Тяньаньмэнь и не хочет говорить про расстрел демонстрантов.
https://mpost.io/female-led-ai-startups-face-funding-hurdles-receiving-less-than-3-of-vc-support/ - ИИ - это сугубо мужская сфера? Стартапы в сфере искусственного интеллекта, возглавляемые женщинами, сталкиваются со значительными различиями в объемах финансирования: они получают в среднем в шесть раз меньше капитала за сделку по сравнению со своими аналогами, основанными мужчинами. Многие ИИ-стартапы основаны командами целиком из мужчин.
https://www.koreatimes.co.kr/www/opinion/2023/10/638_342796.html - Исследователи из Кореи: модели ИИ для генерации графики склонны создавать гиперсексуализированные изображения женщин. В каждом изображении по умолчанию большая грудь и тому подобное. Это искажает действительность, потому что в реальности далеко не каждая женщина так выглядит.
Тейки из предыдущего треда: 1. Генерация дипфейков. Они могут фабриковаться для дезинформации и деструктивных вбросов, в т.ч. со стороны авторитарных государств. Порнографические дипфейки могут рушить репутацию знаменитостей (например, когда в интернетах вдруг всплывает голая Эмма Уотсон). Возможен даже шантаж через соцсети, обычной тянки, которую правдоподобно "раздели" нейронкой. Или, дипфейк чтобы подвести кого-то под "педофильскую" статью. Еще лет пять назад был скандал вокруг раздевающей нейронки, в итоге все подобные разработки были свернуты. 2. Замещение людей на рынке труда ИИ-системами, которые выполняют те же задачи в 100 раз быстрее. Это относится к цифровым художникам, программистам-джуниорам, писателям. Скоро ИИ потеснит 3д-моделеров, исполнителей музыки, всю отрасль разработки видеоигр и всех в киноиндустрии. При этом многие страны не предлагают спецам адекватной компенсации или хотя бы социальных программ оказания помощи. 3. Распознавание лиц на камерах, и усовершенствование данной технологии. Всё это применяется тоталитарными режимами, чтобы превращать людей в бесправный скот. После опыта в Гонконге Китай допиливает алгоритм, чтобы распознавать и пробивать по базе даже людей в масках - по росту, походке, одежде, любым мелочам. 4. Создание нереалистичных образов и их социальные последствия. Группа южнокорейских исследователей поднимала тему о создании средствами Stable Diffusion и Midjourney не соответствующих действительности (гиперсексуализированных) изображений женщин. Многие пользователи стремятся написать такие промпты, чтобы пикчи были как можно круче, "пизже". Публично доступный "AI art" повышает планку и оказывает давление уже на реальных женщин, которые вынуждены гнаться за неадекватно завышенными стандартами красоты. 5. Возможность создания нелегальной порнографии с несовершеннолетними. Это в свою очередь ведет к нормализации ЦП феноменом "окна Овертона" (сначала обсуждение неприемлемо, затем можно обсуждать и спорить, затем это часть повседневности). Сложности добавляет то, что присутствие обычного прона + обычных детей в дате делает возможным ЦП. Приходится убирать или то, или другое. 6. Кража интеллектуальной собственности. Данные для тренировки передовых моделей были собраны со всего интернета. Ободрали веб-скраппером каждый сайт, каждую платформу для художников, не спрашивая авторов контента. Насколько этичен такой подход? (Уже в DALL-E 3 разработчики всерьез занялись вопросом авторского права.) Кроме того, безответственный подход пользователей, которые постят "оригинальные" изображения, сгенерированные на основе работы художника (ИИ-плагиат). 7. Понижение средней планки произведений искусства: ArtStation и Pixiv засраны дженериком с артефактами, с неправильными кистями рук. 8. Индоктринация пользователей идеями ненависти. Распространение экстремистских идей через языковые модели типа GPT (нацизм и его производные, расизм, антисемитизм, ксенофобия, шовинизм). Зачастую ИИ предвзято относится к меньшинствам, например обрезает групповую фотку, чтобы убрать с нее негра и "улучшить" фото. Это решается фильтрацией данных, ибо говно на входе = говно на выходе. Один старый чатбот в свое время произвел скандал и породил мем "кибернаци", разгадка была проста: его обучали на нефильтрованных текстах из соцсетей. 9. Рост киберпреступности и кража приватных данных. Всё это обостряется вместе с совершенствованием ИИ, который может стать оружием в руках злоумышленника. Более того, корпорация которая владеет проприетарным ИИ, может собирать любые данные, полученные при использовании ИИ. 10. Понижение качества образования, из-за халтуры при написании работ с GPT. Решается через создание ИИ, заточенного на распознавание сгенерированного текста. Но по мере совершенствования моделей придется совершенствовать и меры по борьбе с ИИ-халтурой. 11. Вопросы юридической ответственности. Например, автомобиль с ИИ-автопилотом сбил пешехода. Кому предъявлять обвинение? 12. Оружие и военная техника, автономно управляемые ИИ. Крайне аморальная вещь, даже когда она полностью под контролем владельца. Стивен Хокинг в свое время добивался запрета на военный ИИ.
>>559396 >оно поставит своей целью уменьшение страданий И уничтожит человечество, чтобы оно не уничтожало деревья и травинки. /end_of_story >>559401 Да и это не главное.
>>559476 >Тревожный, Спок, Скайнет не убьет тебя. Ну спасибо. успокоил. >цель живого существа Нету там никаких целей, что ты блин заладил. Просто животным например нравится трахаться, а после трахаться появляются потомки. Те, кто не трахались, внезапно умирали от старости, болезней и прочей требухи. Зато сейчас люди ломанули эту систему и трахаются в своё удовольствие, безо всякой передачи генов. А я так вообще хочу жить вечно, ни с кем своими драгоценными генами не делять, а потом и вовсе заменив их на файлы на кремнии. Шах и мат, аметист.
У нас есть Stable diffusion, NovelAI треды, теперь text-to-video нить иди. Из опенсорса, актуальная система - Modelscope, примерно на том же уровне развития что первый DALL-E или "сырой" Latent Diffusion до появления Stable Diffusion. Кадров выходит маловато, но есть модели типа FILM для интерполяции (нарисовать промежуточные кадры). Звука "из коробки" нет. На момент создания треда, эти два спейса рабочие: https://huggingface.co/spaces/MaxLess/text-to-video-synth https://huggingface.co/spaces/jwhh91/modelscope-text-to-video-synthesis Колаб https://colab.research.google.com/drive/1uW1ZqswkQ9Z9bp5Nbo5z59cAn7I0hE6R?usp=sharing Пишите промпт на английском - что-нибудь про объект и его происходящее действие (движение). Результат будет отображаться как пустой черный квадрат, но не пугайтесь - жмите "воспроизвести". Мои примеры на ОПе: 1. a car, perfect movie cinematic 2. luxurious car, perfect movie cinematic 3. first person shooter game, unreal engine 4. anime cinematic, anime girl female character dancing, unreal engine Цензура отсутствует, однако модель сравнительно слабая и с тоннами ватермарок.В основном она для "реалистичного стиля" - мультфильмы получаются так себе. На мой взгляд, ее наибольшая ценность в том, что она подтверждает возможность генерации видео, анимации и фильмов на сравнительно слабых видеокартах. Другой вариант - CogVideo от товарищей из КНР. Новинка от Runway, пока в закрытом тестировании: https://www.youtube.com/watch?v=trXPfpV5iRQ
>>434416 > они будут создавать только логику мира полагаясь на которую нейросеть будет рисовать кадры >>434743 как генерал ии опявится так все нахуй пойдут в том числе логико создатели
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируемТред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
✱ LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам: https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)
✱ LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге: https://github.com/KohakuBlueleaf/LyCORIS
✱ Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet: https://rentry.org/textard (англ.)
➤ Тренировка YOLO-моделей для ADetailer: YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.
>>559155 Не бомби, это я ошибся перепутав показания. Не it/s а s/it то есть секунд на 1 шаг. Не стал исправлять, подумал что вы и так поймете. Пикрил 1063 из консоли (об этом нюансе я писал тут >>554424), для 1050 и 1630 так же скорость с запуском из консоли, через гуи я ебал запускать теряя половину скорости. 1050 я уже не пруфану в любом случае, а вот 1630 завтра принесу если не забуду.
Ну и еще я на днях попробовал на интол арк А380 завестись. В вебморде запуск через openvino появился, но ебать какой же это костыль. Короче я нишмог, и ебаться особого желания не было - воткнул невидию обратно.
NovelAI and WaifuDiffusion тред #117 /nai/
Аноним26/11/23 Вск 23:42:57№556060Ответ
Генерируя в коллабе на чужом блокноте будьте готовы к тому, что его автору могут отправляться все ваши промты, генерации, данные google-аккаунта, IP-адрес и фингерпринт браузера.
Форки на базе модели insightface inswapper_128: roop, facefusion, rope, плодятся как грибы после дождя, каждый делает GUI под себя, можно выбрать любой из них под ваши вкусы и потребности. Лицемерный индус всячески мешал всем дрочить, а потом и вовсе закрыл проект. Чет ору.
Любители ебаться с зависимостями и настраивать все под себя, а также параноики могут загуглить указанные форки на гитхабе. Кто не хочет тратить время на пердолинг, просто качаем сборки.
Тред не является технической поддержкой, лучше создать issue на гитхабе или спрашивать автора конкретной сборки.
Эротический контент в шапке является традиционным для данного треда, перекатчикам желательно его не менять или заменить его на что-нибудь более красивое. А вообще можете делать что хотите, я и так сюда по праздникам захожу.
>>558917 >можно в SD это делать, но тут удобнее как-то и сподручнее Во-первых, это может махмуд. Как и в нормальную модель парсинга лица, как и нормальную модель детекта лица. Хули вы вообще этим рупом продолжаете в тред срать. Во-вторых, конкретно для замены лица СД - лучше всего, так как сохраняет достоверность с пары роллов можно выбрать норм вариант , ган там лучше по каким то причинам мержится.
>>558823 Да вообще всего лица: бровья, глаза, рот, лоб. Ты что не замечаешь, если на оригинальном видео человек рожу корчит, то со свапом мимика будто какого-то аутиста. Например направления глаз не совпадает или они вообще не закрываются. Так же анимация рта при разговоре еле двигается.
А кто-то разобрался со всеми настройками 4 версии рупа? Там можно просто теперь не только в плюс маус крутить, но и в минус (внутреннюю полость рта) и правой кнопкой мышки если нажимать, то там доп. кнопки вылазят, которых раньше не было.
AI генератор композиций прямо из текста https://suno.ai/discord Suno представила свою новую модель текста в песню, Chirp v1. Эта модель способна генерировать музыку, включая вокал, на основе стиля и текста песни. Одним из наиболее значимых улучшений является возможность конвертации различных жанров, таких как рок, поп, K-pop, а также описаний типа “мелодичный” или “быстрый” в музыку.
“Текст песни теперь можно разбить на части с помощью команд вроде [verse] и [chorus], что придает сгенерированным песням больше структуры.”
Первое - с глюком посередине и чуток недопетое, но очень душевно. Это стих Пастернака "Свеча горит". Второе - Маяковский. Третье - это нейронка сочинила, а я самую малость подредактировал. Четвертое - сам сочинил про кореша))
Общаемся с самым продвинутым ИИ самой продвинутой текстовой моделью из доступных. Горим с доступа к свежевыпущенному новому поколению GPT-4.
Гайд по регистрации из России: 1. Установи VPN, например расширение FreeVPN под свой любимый браузер и включи его. 2. Возьми нормальную почту. Адреса со многих сервисов временной почты блокируются. Отбитые могут использовать почту в RU зоне, она прекрасно работает. 3. Зайди на https://chat.openai.com/chat и начни регистрацию. Ссылку активации с почты запускай только со включенным VPN. 4. Когда попросят указать номер мобильного, пиздуй на sms-activate.org или 5sim.biz (дешевле) и в строку выбора услуг вбей openai. Для разового получения смс для регистрации тебе хватит индийского или польского номера за 7 - 10 рублей (проверено). Пользоваться Индонезией и странами под санкциями не рекомендуется. 5. Начинай пользоваться ChatGPT. 6. ??? 7. PROFIT!
VPN не отключаем, все заходы осуществляем с ним. Соответствие страны VPN, почты и номера не обязательно, но желательно для тех, кому доступ критически нужен, например для работы.
Для ленивых есть боты в телеге, 3 сорта: 0. Боты без истории сообщений. Каждое сообщение отправляется изолировано, диалог с ИИ невозможен, проёбывается 95% возможностей ИИ 1. Общая история на всех пользователей, говно даже хуже, чем выше 2. Приватная история на каждого пользователя, может реагировать на команды по изменению поведения и прочее. Говно, ибо платно, а бесплатный лимит или маленький, или его нет совсем.
Перед тем, как идти в тред с горящей жопой при ошибках сервиса, сходи на сайт со статусом, может, это общий баг https://status.openai.com/
Чат помнит историю в пределах контекста, это 4к токенов для GPT 3.5 (до 16к в апи) и 8к для новой GPT-4 (128к в версии GPT-4-Turbo). Посчитать свои токены можно здесь: https://platform.openai.com/tokenizer
Что может нейросеть: - писать тексты, выглядящие правдоподобно - решать некоторые простые задачки - писать код, который уже был написан
Что не может нейросеть: - писать тексты, содержащие только истину - решать сложные задачи - писать сложный код - захватывать мир - заходить на вебсайты (неактуально для 4 с плагинами, платим деньги и радуемся)
С последними обновлениями начинает всё чаще сопротивляться написанию NSFW историй и прочего запрещённого контента. Кумеры со всего мира в печали.
На сегодняшний день (дата создания треда) есть бесплатная версия на основе GPT-3.5 и платная версия (20$/мес) с использованием следующего поколения — GPT-4. Платная версия ограничена 50 запросами в 3 часа, причем планируется увеличение ограничений. Доступ к плагинам открыли в бета-версии для платных пользователей. Оплатить подписку из России нельзя, ищите посредников на сайтах для оплаты онлайн игр и договаривайтесь там сами. Отважные могут попробовать разводил с авито, объявлений вагон, но аноны не проверяли.
Для некоторых пользователей открыли альфа версию с бесплатной GPT-4 c картинками и веб-поиском, но счастливчиков в треде примерно 1 штука, остальные сидят на 3,5 и ноют.
>>558879 Не понимаю тогда зачем говорить дальше об этом. Изначально стоял вопрос о бесплатной хрени у которой должны быть аналогичные бесплатные хрени.
Обсуждаем развитие искусственного интеллекта с более технической стороны, чем обычно.
Я ничего не понимаю, что делать? Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.
Почему python? Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python.
Можно не python? Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет.
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.
Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском
Где ещё можно поговорить про анализ данных? http://ods.ai
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100. Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning заодно в майнкрафт на топовых настройках погоняешь.
Когда уже изобретут AI и он нас всех поработит? На текущем железе — никогда, тред не об этом
Кто-нибудь использовал машоб для трейдинга? Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад. Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка
Список дедовских книг для серьёзных людей Trevor Hastie et al. "The Elements of Statistical Learning" Vladimir N. Vapnik "The Nature of Statistical Learning Theory" Christopher M. Bishop "Pattern Recognition and Machine Learning" Взять можно тут: https://www.libgen.is
Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
Disclaimer: Шапка сгенерирована нейросетью и нуждается в чистке.
>>558428 Шизоид, плиз. Определение AGI от Гугла из 2019: > AGI could learn to accomplish any intellectual task that human beings or animals can perform. От ClosedAI из 2023: > AGI has been defined as an autonomous system that surpasses human capabilities in the majority of economically valuable tasks. Задачи симулировать мозг и мыслительные процессы людей там вообще не стоит, никогда и не было, речь только про выполнение умственных задач. Только шизы приплетают биологию сюда. Поделись своими фантазиями о том что такое AGI, посмеёмся всем тредом. > исследования ты можешь и дальше не замечать Это ты как раз игноришь абсолютно все исследования по нейросетям, приплетая какое-то говно вообще из других областей и выдумывая определения на ходу.
>>558443 >AGI could learn to accomplish any intellectual task that human beings or animals can perform. Нормальное определение. >AGI has been defined as an autonomous system that surpasses human capabilities in the majority of economically valuable tasks. Определение ASI.
Обидно смотреть как много гугл контрибьютит в ИИ, как шире и правильнее их понимание в этой теме и как они сейчас сосут по сравнению с ОпенИИ, которым просто повезло с маркетологами и с тем чтобы выбрать и пушить правильную нишу. С другой стороны, они до сих пор не смогли сделать чтобы Бард не галлюцинировал хотя бы на уровне Гпт-3.5 мимо
>>558491 >по сравнению с ОпенИИ, которым просто повезло с маркетологами С разработчиками им повезло, их продукт реально лучше гуглопараши в языковых вопросах.
Какие у нас в стране есть сервисы для аренды GPU? Условный аналог коллаба, чтобы запускать нейронки, с фокусом на простых пользователей, а не на компании. Всё что попадается, стоит по 60к в месяц, при том что колаб стоит 10-50долларов. Я понимаю что масштабы серверов гугла наверно в разы больше и 60к рублей это за эксклюзивный доступ к серверу на месяц, необходимый профессионалам. Но разве нет у нас своих вариантов которые были бы хотя бы 2-3 раза дороже гугла и давали бы доступ к мощностям на месяц за 10-30 зелёных, а не почасовая оплата по доллару или 1к в месяц.
>>557917 Точнее, не столько рассказ, сколько философские рассуждения по мотивам, и в конце было "Я смотрю тебе прямо в глаза - что ты на это ответишь? *Все это только метафора." По безумию напоминает бинг-чат.
>>544691 (OP) а что не так собственно? Врубаешь ЖПТ 4 Turbo и даёшь команду на какую тему написать полотно.
AI Dynamic Storytelling Thread Это тред про генераторы историй на базе ИИ. Динамические рассказчик /storytelling/
Аноним26/12/22 Пнд 12:29:46№7808Ответ
Это тред про генераторы историй на базе ИИ. Динамические рассказчики с искусственным интеллектом (AI Dynamic Storytellers)- это игры, которые используют искусственный интеллект для генерации текста и изображений для создания безграничной, открытой, интерактивной художественной литературы. Они позволяют быстро и просто получить тонны разных историй, заботливо сгенерированных ИИ, который учитывает ваши пожелания и идеи, по сути это интерактивные истории и текстовые РПГ. Крайне желательно знать английский язык или уметь пользоваться переводчиками
Самые популярные из генераторов историй на данный момент:
1) Kobold AI. Бесплатный проект, есть много модулей, как с цензурой, так и без, можно запускать из коллаба или локально у себя на пекарне требуется минимум 8gb видеопамяти на видеокарте, активное сообщество, которое допиливает проект. Из условных минусов - нужно читать гайды по настройке, понимать что куда крутить, а что не трогать. Знание английского языка сильно пригодится, потому что большинство гайдов и пояснений на нём, как и остальное. https://koboldai.org - клиент для запуска на пекарне https://koboldai.org/colab - гугл коллаб для запуска с одной кнопки https://aids.miraheze.org/wiki/KoboldAI - вики на английском https://rentry.org/itsnotthathard - гайд от англоанона, где всё подробно расписано https://henk.tech/softtuner - Модули https://github.com/TavernAI/TavernAI - версия с новым графическим интерфейсом в стиле чат-бота и более простым управлением. https://rentry.org/cdztg - краткий гайд для тех, кто не владеет английским
2) Novel AI. Платный генератор историй + картинок к ним. На данный момент оплата с территории снг вызывает проблемы. Есть бесплатный триал, но как вы наверное и сами поняли, он имеет серьёзные ограничения, чтобы заставить вас раскошелиться. Имеются разные Генерация картинок на сайте, кстати, тоже платная. но модель была слита в сеть и соседних тредах про генерацию картинок вы можете сделать это бесплатно, лол https://novelai.net - сайт проекта. https://aids.miraheze.org/wiki/Category:NovelAI - небольшая вики от англоанона https://rentry.org/skucs - краткий гайд на русском https://grotar00.itch.io/nai-card-editor - NAI Card Editor (Простой визуальный инструмент для создания карточек в формате PNG для иллюстраций квашим Лорбукам NAI)
3) AI Dungeon AI Dungeon — однопользовательская и многопользовательская текстовая приключенческая игра, использующая искусственный интеллект для создания игрового контента. В теории она как бы бесплатная, но на практике вы встречаете серьёзные ограничения на бесплатную версию, которая по сравнению с самой дорогой подпиской выглядит как котёнок в сравнении с тигром. Генерация картинок тоже есть, как и в NAI, но отгорожена премиум-подпиской, оплата которой из снг тоже является проблемой. Цензура присутствует, так что не рассчитывайте на многое, там она будет следовать за вами постоянно. https://aidungeon.io - сайт проекта https://ru.wikipedia.org/wiki/AI_Dungeon - вики по AID https://rentry.org/remember-what-they-took-from-you - англоаноны поясняют за проблемы проекта
Делимся своими рассказами, пытаемся получить интересное, обсуждаем новости по теме. Приветствуются советы от анонов, русскоязычные гайды и скрины самых удачных генераций.
>>550857 тебе с такими вводными разве что клод подойдёт залетаешь в аисг ака тень былого величия конЧАЙ-треда, куришь шапку, ставишь силлитаверну, накатываешь промпты от rentry.org/CharacterProvider и довольно урчишь прокся ‐ ctrl + f по тредам "hf" и "hugging"
>>556991 Насчет силли таверны и промтов все так, но на самом деле подойдет все, что угодно, а не только клод. Залог успеха это кропотливо проработанная карточка персонажа и готовность отыгрывать роли, веря в то, что нейросетка тоже отыгрывает.
AI Chatbot General № 416 /aicg/
Аноним27/11/23 Пнд 21:44:55№556968Ответ
>>559528 Как можно быть настолько тупым? Это уже даже несмешно >>559529 Ну и правильно сделал по справедливости. Хоть я и отлетел но раз о ней и так все знают, то все по чесноку
Remini совсем ёбнулись — после входа в приложение, я впервые такое вижу. То есть реклама после входа, реклама после выбора изображения и реклама после генерации.
Есть какие-нибудь другие сервисы на таком же уровне? Есть gfpgan, бесплатно и высокая скорость, но там лицо полностью перерисовывает и вообще не похоже в итоге.
Topaz Gigapixel или Topaz Photo AI. Что сейчас лучше хз, так как они постоянно шатают модели, но с GFPGANами и прочим просто небо и земля, лучше пока нет. Да, проприетарно, берется на торентах
Bing Chat AI /bingchat/
Аноним29/09/23 Птн 15:28:54№503461Ответ
попросил бинг сделать мне пустой файл таблицы / презы –ссылки в тексте не кликабельны и вообще не прошиты, а просто текст в квадратных скобках (присылал ссылки на домен bing
недавно снова попросил это сделать - теперь он отправляет ссылки на one drive, но и они не работают и в тексте ответов url не прошивает
в обоих случаях просил прислать полные url - по ссылкам файлов нет, что он подтверждает когда прошу проверить
спросил может ли он редактировать гугл таблицы, он ответил - да, я создал таблицу и дал доступ, попросил добавить в неё несколько букв, увидел что к таблице подключился неизвестный пользователь, но ничего не сделал
мне бинг отвечает, что вносит изменения, но по факту нет, потом эта функция вообще отрубилась и он начал объяснять, что не делает документы, а только даёт мануал