Hype Font FREE Download & Similar Fonts
- Fonts
- Font Generator
- Famous Fonts
Download @font-face Kit
Free for Personal Use
Download Font
5
5
голосов
- Бесплатно для личного пользования
- Basic
- Sans Serif
- Рукописный ввод
- Classic
- Casual
Скачать шрифт Hype можно бесплатно с FontGet. Hype — это бесплатный шрифт для личного пользования, созданный Нильсом Меркелем. Hype — это шрифт рукописного ввода, который можно использовать на любом устройстве, таком как ПК, Mac, Linux, iOS и Android. Этот шрифт имеет 2 стиля ( Хайп Хайп смелый).
Тест-драйв
Фильтры
Hype
Hype
Download Font TTFHype Bold
Hype Bold
Download Font TTF
Fonts like Hype
Candela
Gausshauss
Нильс Меркель
3
Марлоне
Рико Рифаи
1
Кивар0019
Harmnessless Type
1
Lizard
Matias Romero
1
Lugina
Carrot Rope
2
M Capitals
Manfred Klein
1
Right Attitude Sans
Edric Studio
1
Celine Peach Sans
Craft Supply Co.
2
Jufatti
Amru ID
1
Petitscript
Manfred Klein
2
High Voltage
Levi Szekeres
1
Тосканен
Манфред Кляйн
1
Элли
Эшли Розенберг
1
Kirschbaum
Alper Ide
1
Lee Haus Sans
Matthew Lee
2
Made Florence Sans
MadeType
2
Grotes Sans
Konstantine Studio
1
Brioche Au Potiron
Dcoxy — Greg Medina
1
Genji
UkiyoMoji Fonts
2
Giada
Pete Willard
1
Hanca
Vz Type
3
Hellas Dust
Manfred Klein
1
Генри Морган Хэнд
Манфред Кляйн
1
Герр Куулс Письмо
Манфред Кляйн
1
Hlmt Rounded
Heather T.
1
Holla Olla
Creative Killer
1
Hurray
Alien foundery
1
Ideoma Technit
Ideoma
1
Jacks Font
Jakinthebox Foundry
1
3
Жасмин Ласло
Чернила в клетку
1
Джетфаст
Делип Нуграха
1
- 90! Hand
Tepid Monkey
1
Kids First Print Font
Manfred Klein
1
Kitchen
Nathan Thomet
1
Kyrilla
Манфред Кляйн
2
Ла Айва де Майра
Муракнокаут Медиа
2
5 90 Генеративный все меняется.- Will Douglas HeavenСтраница архива

Искусственный интеллект
Никто не знал, насколько популярным будет OpenAI DALL-E в 2022 году, и никто не знает, к чему нас приведет его рост.
By
16 декабря 2022 г.
Цифровой художник Эрик Картер использовал инструмент ИИ для преобразования текста в изображение DALL-E 2, чтобы создать это тревожное изображение. Эрик КартерБыло ясно, что OpenAI что-то задумал. В конце 2021 года небольшая группа исследователей обдумывала идею в офисе компании в Сан-Франциско. Они создали новую версию модели преобразования текста в изображение OpenAI, DALL-E, ИИ, который преобразует короткие письменные описания в изображения: например, лиса, нарисованная Ван Гогом, или корги, сделанный из пиццы. Теперь оставалось только решить, что с этим делать.
«Почти всегда мы что-то создаем, а потом нам всем приходится это использовать какое-то время», — говорит Сэм Альтман, соучредитель и генеральный директор OpenAI, в MIT Technology Review. «Мы пытаемся выяснить, что это будет, для чего это будет использоваться».
Не в этот раз. Когда они возились с моделью, все участники поняли, что это что-то особенное. «Было совершенно ясно, что это все — это был продукт», — говорит Альтман. «Обсуждений не было. У нас даже не было совещаний по этому поводу».
Но никто — ни Альтман, ни команда DALL-E — не мог предсказать, насколько большой фурор произведет этот продукт. «Это первая технология искусственного интеллекта, которая загорелась среди обычных людей», — говорит Альтман.
DALL-E 2 упал в апреле 2022 года. В мае Google анонсировала (но не выпустила) две собственные модели преобразования текста в изображение, Imagen и Parti. Затем появился Midjourney, модель преобразования текста в изображение, созданная для художников. А август принес Stable Diffusion, модель с открытым исходным кодом, которую британский стартап Stability AI бесплатно выпустил для публики.
Двери сорвались с петель. OpenAI зарегистрировал миллион пользователей всего за 2,5 месяца. Более миллиона человек начали использовать Stable Diffusion через платный сервис Dream Studio менее чем за половину этого времени; многие другие использовали Stable Diffusion через сторонние приложения или установили бесплатную версию на свои компьютеры. (Эмад Мостак, основатель Stability AI, говорит, что нацелился на миллиард пользователей.)
А затем, в октябре, у нас был второй раунд: поток моделей преобразования текста в видео от Google, Meta и других. Вместо того, чтобы просто генерировать неподвижные изображения, они могут создавать короткие видеоклипы, анимацию и 3D-изображения.
Темпы развития были захватывающими. Всего за несколько месяцев эта технология вдохновила сотни газетных заголовков и обложек журналов, наполнила социальные сети мемами, запустила хайп-машину и вызвала сильную негативную реакцию.
Эта история является частью нашей предстоящей серии «10 прорывных технологий 2023». Подпишитесь на The Download, чтобы получить полный список в январе.
«Эта технология вызывает шок и трепет — и это весело, именно такой должна быть новая технология», — говорит Майк Кук, исследователь искусственного интеллекта из Королевского колледжа Лондона, изучающий вычислительную креативность. «Но он движется так быстро, что ваши первоначальные впечатления обновляются еще до того, как вы привыкнете к этой идее. Я думаю, что мы собираемся потратить некоторое время на то, чтобы переварить это как общество».
Художники оказались в эпицентре одного из самых больших потрясений за последнее поколение. Некоторые потеряют работу; некоторые найдут новые возможности. Некоторые направляются в суды, чтобы вести юридические баталии по поводу того, что они считают незаконным присвоением изображений для обучения моделей, которые могли бы их заменить.
Создатели были застигнуты врасплох, говорит Дон Аллен Стивенсон III, цифровой художник из Калифорнии, работавший в студиях визуальных эффектов, таких как DreamWorks. «Для технически подготовленных людей, таких как я, это очень страшно. Ты такой: «Боже мой, это вся моя работа», — говорит он. «В первый месяц использования DALL-E у меня начался экзистенциальный кризис».
ERIK CARTER VIA DALL-E 2
Но пока некоторые еще не оправились от шока, многие, включая Стивенсона, находят способы работать с этими инструментами и предвидят, что будет дальше.
Захватывающая правда в том, что мы на самом деле не знаем. В то время как творческие отрасли — от развлекательных медиа до моды, архитектуры, маркетинга и т. д. — почувствуют влияние в первую очередь, эта технология даст творческие сверхспособности каждому. В долгосрочной перспективе его можно будет использовать для создания дизайна практически чего угодно, от новых видов наркотиков до одежды и зданий. Генеративная революция началась.
Волшебная революция
Для Чада Нельсона, создателя цифровых технологий, который работал над видеоиграми и телешоу, модели преобразования текста в изображение — это прорыв, который случается раз в жизни. «Эта технология переносит вас от лампочки в голове к первому наброску за считанные секунды», — говорит он. «Скорость, с которой вы можете создавать и исследовать, является революционной — она превосходит все, с чем я сталкивался за 30 лет».
Скоро:
Новый отчет о том, как компании, занимающиеся промышленным дизайном и инжинирингом, используют генеративный ИИ.
Подпишитесь, чтобы получать уведомления о выходе.
В течение нескольких недель после их дебюта люди использовали эти инструменты для прототипирования и мозгового штурма всего, от журнальных иллюстраций и маркетинговых макетов до среды видеоигр и концепций фильмов. Люди создавали фан-арты, даже целые комиксы, и тысячами делились ими в сети. Альтман даже использовал DALL-E для создания дизайна кроссовок, которые кто-то затем сделал для него после того, как он опубликовал изображение в Твиттере.
Эми Смит, ученый-компьютерщик Лондонского университета королевы Марии и художник-татуировщик, использовала DALL-E для создания татуировок. «Вы можете сесть с клиентом и вместе создать дизайн», — говорит она. «Мы переживаем революцию в медиапоколении».
Пол Трилло, цифровой и видеохудожник из Калифорнии, считает, что технология упростит и ускорит мозговой штурм идей для визуальных эффектов. «Люди говорят, что это смерть художников по спецэффектам или смерть модельеров», — говорит он. «Я не думаю, что это смерть чего-либо. Я думаю, это означает, что нам не нужно работать по ночам и в выходные».
Компании, работающие со стоковыми изображениями, занимают разные позиции. Компания Getty запретила изображения, созданные искусственным интеллектом. Shutterstock подписала соглашение с OpenAI о размещении DALL-E на своем веб-сайте и заявляет, что создаст фонд для возмещения расходов художников, чья работа использовалась для обучения моделей.
Стивенсон говорит, что он опробовал DALL-E на каждом этапе процесса, используемого анимационной студией для создания фильма, включая проектирование персонажей и окружения. С DALL-E он смог выполнить работу нескольких отделов за несколько минут. «Это воодушевляет всех людей, которые никогда не могли творить, потому что это было слишком дорого или слишком сложно», — говорит он. «Но это ужасно, если ты не открыт для изменений».
Нельсон думает, что все еще впереди. В конце концов, он видит, что эту технологию используют не только медиа-гиганты, но и архитектурные и дизайнерские фирмы. Однако он еще не готов, говорит он.
«Сейчас как будто у тебя есть маленькая волшебная коробочка, маленький волшебник», — говорит он. Это здорово, если вы просто хотите продолжать генерировать изображения, но не в том случае, если вам нужен творческий партнер. «Если я хочу, чтобы он создавал истории и строил миры, ему нужно гораздо больше осознавать, что я создаю», — говорит он.
Вот в чем проблема: эти модели до сих пор не понимают, что делают.
Внутри черного ящика
Чтобы понять почему, давайте посмотрим, как работают эти программы. Снаружи программное обеспечение представляет собой черный ящик. Вы вводите краткое описание — подсказку — и ждете несколько секунд. В ответ вы получите несколько изображений, которые соответствуют этой подсказке (более или менее). Возможно, вам придется подкорректировать текст, чтобы уговорить модель создать что-то более близкое к тому, что вы задумали, или отшлифовать случайный результат. Это стало известно как быстрая инженерия.
Подсказки для наиболее подробных, стилизованных изображений могут состоять из нескольких сотен слов, и подбор правильных слов стал ценным навыком. Появились онлайн-рынки, где покупаются и продаются подсказки, которые, как известно, приносят желаемые результаты.
Подсказки могут содержать фразы, которые предписывают модели выбрать определенный стиль: «популярный на ArtStation» указывает ИИ имитировать (обычно очень подробный) стиль изображений, популярный на ArtStation, веб-сайте, где тысячи художников демонстрируют свои работы; «Нереальный движок» вызывает знакомый графический стиль некоторых видеоигр; и так далее. Пользователи могут даже вводить имена конкретных художников, и ИИ будет создавать подделки их работ, что очень недовольно некоторых художников.
ЭРИК КАРТЕР ЧЕРЕЗ DALL-E 2
ЭРИК КАРТЕР ЧЕРЕЗ DALL-E 2
ЭРИК КАРТЕР ЧЕРЕЗ DALL-E 2
«Я попытался метафорически представить ИИ с подсказкой «Большой взрыв» и в итоге получил эти абстрактные пузыреобразные формы (справа). Это было не совсем то, чего я хотел, поэтому я перешел к «взрыву в космическом пространстве на фотографии 1980-х годов» (слева), что показалось слишком агрессивным. Я также попытался вырастить некоторые цифровые растения, поместив в «посадить 8-битную пиксельную графику» (в центре)».
Под капотом у моделей преобразования текста в изображение есть два ключевых компонента: одна нейронная сеть, обученная соединять изображение с текстом, описывающим это изображение, и другая, обученная генерировать изображения с нуля. Основная идея состоит в том, чтобы заставить вторую нейронную сеть генерировать изображение, которое первая нейронная сеть принимает в качестве совпадения с подсказкой.
Большой прорыв в новых моделях заключается в способе создания изображений. Первая версия DALL-E использовала расширение технологии языковой модели OpenAI GPT-3, создавая изображения путем предсказания следующего пикселя в изображении, как если бы это были слова в предложении. Это сработало, но не очень хорошо. «Это не был волшебный опыт, — говорит Альтман. «Удивительно, что это вообще сработало».
Вместо этого DALL-E 2 использует так называемую диффузионную модель. Диффузионные модели — это нейронные сети, обученные очищать изображения путем удаления пиксельного шума, добавляемого в процессе обучения. Процесс включает в себя получение изображений и изменение в них нескольких пикселей за раз в течение многих шагов, пока исходные изображения не будут стерты, и у вас не останется ничего, кроме случайных пикселей. «Если вы сделаете это тысячу раз, в конечном итоге изображение будет выглядеть так, как будто вы выдернули антенный кабель из телевизора — это просто снег», — говорит Бьорн Оммер, работающий над генеративным ИИ в Мюнхенском университете в Германии и помогавший создавать модель диффузии, которая теперь поддерживает стабильную диффузию.
Затем нейронная сеть обучается обращать этот процесс вспять и предсказывать, как будет выглядеть менее пикселизированная версия данного изображения. В результате, если вы зададите диффузионной модели беспорядок пикселей, она попытается сгенерировать что-то более чистое. Подключите очищенное изображение обратно, и модель создаст что-то еще более чистое. Сделайте это достаточное количество раз, и модель сможет пройти весь путь от телевизионного снега до изображения с высоким разрешением.
Искусственные генераторы ИИ никогда не работают точно так, как вы хотите. Они часто дают отвратительные результаты, которые в лучшем случае могут напоминать искаженное стоковое искусство. По моему опыту, единственный способ сделать работу действительно красивой — это добавить дескриптор в конце со стилем, который выглядит эстетично.
~Erik Carter
Хитрость моделей преобразования текста в изображение заключается в том, что этот процесс управляется языковой моделью, которая пытается сопоставить подсказку с изображениями, создаваемыми моделью распространения. Это подталкивает модель распространения к изображениям, которые языковая модель считает хорошим соответствием.
Но модели не берут связь между текстом и изображениями из воздуха. Большинство современных моделей преобразования текста в изображение обучаются на большом наборе данных под названием LAION, который содержит миллиарды пар текста и изображений, взятых из Интернета. Это означает, что изображения, которые вы получаете с помощью модели преобразования текста в изображение, представляют собой квинтэссенцию мира, представленного в Интернете, искаженного предрассудками (и порнографией).
И последнее: между двумя самыми популярными моделями DALL-E 2 и Stable Diffusion есть небольшая, но важная разница. Модель распространения DALL-E 2 работает с полноразмерными изображениями. Стабильная диффузия, с другой стороны, использует метод скрытой диффузии, изобретенный Оммером и его коллегами. Он работает со сжатыми версиями изображений, закодированных в нейронной сети в так называемом скрытом пространстве, где сохраняются только основные характеристики изображения.
Это означает, что для стабильной диффузии требуется меньше вычислительных ресурсов. В отличие от DALL-E 2, который работает на мощных серверах OpenAI, Stable Diffusion может работать на (хороших) персональных компьютерах. Взрыв творчества и быстрая разработка новых приложений во многом связаны с тем, что Stable Diffusion является открытым исходным кодом — программисты могут свободно изменять его, строить на нем и зарабатывать на этом деньги — и достаточно легким, чтобы люди могли его запускать. дома.
Переосмысление творчества
Для некоторых эти модели являются шагом к искусственному общему интеллекту, или ОИИ — чрезмерно разрекламированному модному слову, относящемуся к будущему ИИ, обладающему универсальными или даже человеческими способностями. OpenAI ясно заявил о своей цели достижения AGI. По этой причине Альтмана не волнует, что DALL-E 2 теперь конкурирует с множеством аналогичных инструментов, некоторые из которых бесплатны. «Мы здесь, чтобы создавать ОИИ, а не генераторы изображений», — говорит он. «Это впишется в более широкую дорожную карту продукта. Это один небольшой элемент того, что будет делать ОИИ».
Это по меньшей мере оптимистично: многие эксперты считают, что сегодняшний ИИ никогда не достигнет такого уровня. С точки зрения базового интеллекта, модели преобразования текста в изображение не умнее, чем лежащие в их основе ИИ, генерирующие языки. Такие инструменты, как GPT-3 и Google PaLM, извлекают шаблоны текста из многих миллиардов документов, на которых они обучены. Точно так же DALL-E и Stable Diffusion воспроизводят ассоциации между текстом и изображениями, найденные в миллиардах примеров в Интернете.
Результаты ошеломительны, но если нажать слишком сильно, иллюзия разрушится. Эти модели создают базовые ревуны — в ответ на «лосось в реке» изображением нарезанного филе, плывущего вниз по течению, или на «летучая мышь, летящая над бейсбольным стадионом» изображением летающего млекопитающего и деревянной палки. Это потому, что они построены на основе технологий, которые далеки от понимания мира, как это делают люди (или даже большинство животных).
Тем не менее, это может быть лишь вопросом времени, когда эти модели научатся лучшим трюкам. «Люди говорят, что сейчас это не очень хорошо, и, конечно же, это не так», — говорит Кук. «Но сто миллионов долларов спустя это вполне может быть».
Это определенно подход OpenAI.
«Мы уже знаем, как сделать его в 10 раз лучше, — говорит Альтман. «Мы знаем, что есть задачи на логическое мышление, которые он портит. Мы пройдемся по списку вещей и выпустим новую версию, в которой исправлены все текущие проблемы».
Если заявления об интеллекте и понимании преувеличены, то как насчет творчества? Среди людей мы говорим, что художники, математики, предприниматели, детсадовцы и их учителя — все они являются образцами творчества. Но понять, что общего у этих людей, сложно.
Для некоторых важнее всего результат. Другие утверждают, что способ создания вещей и наличие намерения в этом процессе имеют первостепенное значение.
Тем не менее, многие прибегают к определению, данному Маргарет Боден, влиятельному исследователю ИИ и философу из Университета Сассекса, Великобритания, которая сводит концепцию к трем ключевым критериям: чтобы быть творческим, идея или артефакт должны быть новым, удивительным и ценным.
Кроме того, часто бывает так, что ты узнаешь это, когда увидишь. Исследователи в области, известной как вычислительная креативность, описывают свою работу как использование компьютеров для получения результатов, которые считались бы творческими, если бы их производили одни люди.
Поэтому Смит счастлив назвать это новое поколение генеративных моделей творческими, несмотря на их глупость. «Совершенно ясно, что в этих изображениях есть инновации, которые не контролируются никаким человеческим вмешательством», — говорит она. «Перевод текста в изображение часто бывает удивительным и красивым».
Мария Тереза Льяно, изучающая вычислительную креативность в Университете Монаша в Мельбурне, Австралия, согласна с тем, что модели преобразования текста в изображение расширяют предыдущие определения. Но Льяно не считает их творческими. По ее словам, когда вы часто используете эти программы, результаты могут начать повторяться. Это означает, что они не соответствуют некоторым или всем требованиям Бодена. И это может быть фундаментальным ограничением технологии. По замыслу модель преобразования текста в изображение штампует новые изображения по подобию миллиардов изображений, которые уже существуют. Возможно, машинное обучение будет когда-либо создавать изображения, имитирующие то, с чем оно сталкивалось в прошлом.
Это может не иметь значения для компьютерной графики. Adobe уже встраивает генерацию текста в изображение в Photoshop; Blender, двоюродный брат Photoshop с открытым исходным кодом, имеет подключаемый модуль Stable Diffusion. И OpenAI сотрудничает с Microsoft над виджетом преобразования текста в изображение для Office.
DALL-E 2 принимает изображение или письменный текст в качестве подсказки. Изображение выше было создано путем загрузки окончательного изображения Эрика Картера обратно в DALL-E 2 в качестве подсказки.ERIK CARTER VIA DALL-E 2
Именно в таком взаимодействии, в будущих версиях этих знакомых инструментов, можно ощутить реальное влияние: от машин, которые не заменяют человеческое творчество, а усиливают его. «Креативность, которую мы видим сегодня, исходит от использования систем, а не от самих систем», — говорит Ллано, — от обмена запросами и ответами, необходимыми для получения желаемого результата.
Эту точку зрения разделяют и другие исследователи вычислительной креативности. Дело не только в том, что делают эти машины; как они это делают. Превратить их в настоящих творческих партнеров означает подтолкнуть их к большей самостоятельности, возложить на них творческую ответственность, заставить их курировать, а также создавать.
Аспекты этого скоро появятся. Кто-то уже написал программу под названием CLIP Interrogator, которая анализирует изображение и выдает запрос на создание других подобных изображений. Другие используют машинное обучение, чтобы дополнить простые подсказки фразами, предназначенными для придания изображению дополнительного качества и точности, — эффективно автоматизируя создание подсказок — задачу, которая существовала всего несколько месяцев.
Тем временем, пока поток изображений продолжается, мы закладываем и другие основы. «Теперь Интернет навсегда засорен изображениями, созданными искусственным интеллектом, — говорит Кук. «Изображения, которые мы сделали в 2022 году, будут частью любой модели, которая будет производиться с этого момента».
Нам придется подождать, чтобы точно увидеть, какое долгосрочное влияние эти инструменты окажут на творческие отрасли и на всю область ИИ. Генеративный ИИ стал еще одним инструментом самовыражения. Альтман говорит, что теперь он использует сгенерированные изображения в личных сообщениях так же, как раньше использовал эмодзи. «Некоторые из моих друзей даже не удосуживаются сгенерировать изображение — они печатают подсказку», — говорит он.
Но модели преобразования текста в изображение могут быть только началом. В конечном итоге генеративный ИИ можно будет использовать для создания проектов для всего, от новых зданий до новых лекарств — представьте, что текст — X .
«Люди поймут, что техника или ремесло больше не являются препятствием — теперь это просто их способность воображать», — говорит Нельсон.
Компьютеры уже используются в нескольких отраслях для создания огромного количества возможных конструкций, которые затем отсеиваются в поисках тех, которые могут работать. Текст в 9Модели 0459 X позволили бы разработчику-человеку с самого начала точно настроить этот генеративный процесс, используя слова, чтобы направлять компьютеры через бесконечное количество вариантов для получения результатов, которые не только возможны, но и желательны.
Компьютеры могут создавать пространства, наполненные бесконечными возможностями. Text-to- X позволит нам исследовать эти пространства с помощью слов.
«Я думаю, что это наследие», — говорит Альтман. «Изображения, видео, аудио — в конечном итоге все будет сгенерировано. Я думаю, что он просто просочится повсюду».
Уилл Дуглас Хэвен
Инновационный выпуск
Эта статья была частью нашего выпуска за январь/февраль 2023 года.
Изучить проблемуГлубокое погружение
Искусственный интеллект
Тестеры Roomba чувствуют себя введенными в заблуждение после того, как интимные изображения оказались в Facebook СМИ.
