Сценарист: Фатих Сарыоглу, Кутлухан Айгюзель и Курош Шарифи.

Добро пожаловать в наш еженедельный дайджест новостей AI! Здесь мы представим вам последние обновления об искусственном интеллекте. Узнайте о самых захватывающих событиях, происходящих в области ИИ, их влиянии на мир и о том, что произойдет в ближайшем будущем. Следите за нашими новостями и следите за новостями и прорывами!

Stability AI выпускает Stable Diffusion XL 1.0

В новостях об искусственном интеллекте на этой неделе стартап Stability AI представил свой последний выпуск Stable Diffusion XL 1.0, модель преобразования текста в изображение, которая может похвастаться более яркими цветами, лучшей контрастностью и улучшенным созданием текста. Имея 3,5 миллиарда параметров, модель может создавать изображения с высоким разрешением за считанные секунды. Стабильность ИИ предприняла шаги для решения этических проблем, отфильтровав небезопасные изображения, но природа модели с открытым исходным кодом повышает вероятность неправомерного использования при создании вредоносного контента и дипфейков.

Хотя новая модель представляет собой впечатляющие достижения, она также сталкивается с проблемами, связанными с нарушением авторских прав, поскольку некоторые художники протестовали против использования их работ в качестве обучающих данных. Stability AI сотрудничает с другим стартапом, чтобы уважать запросы этих артистов об отказе. Кроме того, компания работает над улучшением функций безопасности и намерена учитывать просьбы артистов об удалении их из обучающих наборов данных.

Чтобы улучшить пользовательскую настройку, Stability AI выпускает бета-версию функции тонкой настройки для своего API, позволяющую пользователям специализировать создание изображений для конкретных людей и продуктов всего с пятью изображениями. Компания также сотрудничает с Amazon Web Services (AWS) и внедряет Stable Diffusion XL 1.0 в Bedrock, облачную платформу AWS для размещения генеративных моделей ИИ.

Несмотря на эти инновационные шаги, Stability AI сталкивается с жесткой конкуренцией со стороны других игроков, таких как OpenAI и Midjourney. Компания недавно привлекла значительный венчурный капитал, но сообщила о финансовом затишье, что привело к конвертируемой облигации на 25 миллионов долларов и поиску руководителей для увеличения продаж.

Генеральный директор Stability AI Эмад Мостак выразил энтузиазм по поводу их последней версии, подчеркнув приверженность компании сотрудничеству с AWS и предоставлению сообществу передовых решений в области ИИ.

Источник: ТехКранч

OpenAI тихо закрывает свой инструмент обнаружения ИИ

OpenAI, ведущий производитель искусственного интеллекта, недавно объявил о прекращении выпуска своего инструмента обнаружения ИИ, AI Classifier, который был разработан для обнаружения контента, созданного с использованием моделей ИИ, таких как ChatGPT. Инструмент был отозван из-за его низкой точности, поскольку он изо всех сил пытался эффективно различать текст, написанный человеком, и текст, созданный ИИ.

Первоначально представленный как потенциальное решение для идентификации контента, созданного ИИ, и предотвращения неправомерного использования, классификатор ИИ был помечен самой OpenAI как «не полностью надежный». Оценки показали, что он правильно идентифицировал только 26% написанного ИИ текста как вероятно сгенерированный ИИ, а также ошибочно помечал написанный человеком контент как сгенерированный ИИ в 9% случаев. Ограничения инструмента включали ненадежность с текстами менее 1000 символов и низкую производительность классификаторов на основе нейронных сетей за пределами их обучающих данных.

В частности, образование выразило большой интерес к обнаружению ИИ, чтобы решить проблемы студентов, использующих чат-боты ИИ, такие как ChatGPT, для написания эссе. Тем не менее, OpenAI признал важность признания ограничений и влияния классификаторов текста, созданных ИИ, в классе. Ненадежный характер классификатора ИИ вызвал обеспокоенность у преподавателей.

OpenAI теперь сосредоточен на учете отзывов и изучении более эффективных методов определения происхождения текста. Компания стремится разработать механизмы, которые позволят пользователям определять, является ли звуковой или визуальный контент генерируемым искусственным интеллектом. По мере того, как использование сложных инструментов ИИ становится все более распространенным, спрос на надежные детекторы ИИ растет.

Прекращение поддержки классификатора ИИ подчеркивает проблемы с точной идентификацией контента, созданного ИИ, и подчеркивает необходимость дальнейших исследований и разработок в этой области. OpenAI по-прежнему стремится совершенствовать свои инструменты искусственного интеллекта и планирует расширять свои информационно-пропагандистские усилия, чтобы получать больше информации от пользователей. Хотя классификатор ИИ не оправдал ожиданий, продолжающиеся усилия OpenAI свидетельствуют о стремлении решать проблемы, связанные с контентом ИИ и его влиянием на различные области, включая образование.

Источник: decrypt.co

Worldcoin: Сэм Альтман запускает свой новый проект крипто-монеты, сканирующий глазное яблоко

Предприниматель в области искусственного интеллекта Сэм Альтман запустил спорный криптовалютный проект под названием Worldcoin. Цель проекта — подтвердить, является ли пользователь человеком или роботом, и потенциально проложить путь к универсальному базовому доходу, финансируемому искусственным интеллектом. Несмотря на опасения по поводу конфиденциальности и безопасности данных, Worldcoin привлекла более двух миллионов регистраций в 33 странах. Компания стремится заставить миллиарды людей сканировать свою радужную оболочку, чтобы доказать свою человечность. Хотя криптомонеты недоступны для граждан США из-за проблем с регулированием, Worldcoin вызвал значительный интерес со стороны Европы, Индии и южной части Африки.

Процесс Worldcoin включает в себя сканирование лица и радужной оболочки глаза человека, а в качестве награды присуждается 25 бесплатных токенов Worldcoin. Проект столкнулся с критикой за свою тактику в более бедных странах и опасения по поводу безопасности данных. Эксперты по конфиденциальности обеспокоены потенциальным неправомерным использованием конфиденциальных данных, полученных при сканировании радужной оболочки глаза, хотя Worldcoin утверждает, что данные не хранятся. Виталик Бутерин, соучредитель Ethereum, выразил воодушевление по поводу проекта, но также предупредил о его потенциальных ловушках и концентрации власти в руках Worldcoin.

Основатель Twitter Джек Дорси написал в Твиттере явную критику проекта, назвав его миссию «милой» с антиутопическим предупреждением. Сэм Альтман приветствовал критику, признавая амбициозный характер проекта и необходимость экспериментов для достижения прогресса.

Несмотря на неоднозначный прием, полноценный запуск Worldcoin привел к тому, что тысячи людей стояли в очереди на сканирующие сайты по всему миру. В рамках проекта планируется развернуть 1500 сфер по всему миру, чтобы продолжить сбор сканов. В то время как некоторые участники видят потенциал роста стоимости токенов, другие скептически относятся к их долгосрочным перспективам.

Антиутопический подход Worldcoin к проверке личности и потенциальные последствия широкомасштабного сканирования радужной оболочки глаза вызвали как интерес, так и обеспокоенность в сообществах криптовалют и конфиденциальности.

Источник: Би-Би-Си

LongNet: до 1 миллиарда токенов и выше

LongNet — это новая версия модели Transformer, которая позволяет обрабатывать чрезвычайно длинные последовательности текста с масштабируемым размером окна более 1 миллиарда токенов. Исследователи Microsoft достигли этого инженерного подвига. через редкое внимание, рассеянное внимание и линейно увеличивающееся количество головок внимания. Им также удалось сохранить производительность на более коротких последовательностях, имея при этом линейную сложность вычислений и логарифмическую зависимость между любыми двумя токенами в последовательности.

LongNet, разработанный Microsoft Research, является важным достижением в области обработки естественного языка (NLP) и машинного обучения (ML), поскольку он удовлетворяет потребность в моделях, которые могут обрабатывать более длинные последовательности (например, тысячи документов) одновременно без ущерба для производительности. или требующие невероятных объемов памяти.

В следующем разделе вы сможете лучше понять ключевые слова, упомянутые выше. Для тех, кто заинтересован в более техническом обзоре LongNet, я (Курош) глубоко погрузился в его технические детали в этой статье.

Модель трансформатора, механизм внимания и жетоны

Модель преобразователя — это тип архитектуры искусственной нейронной сети (ИНС), которая используется для задач НЛП. Он основан на механизме внимания, который позволяет модели изучать дальние зависимости между словами в последовательности. Для получения дополнительной информации вы можете прочитать знаменитую статью Внимание — это все, что вам нужно, написанную Vaswani et al. (2017).

Внимание – это механизм, который позволяет нейронной сети сосредоточиться на определенных частях входной последовательности. Это важно для языковых задач, где значение предложения может зависеть от отношений между разными словами.

Токен – это единица текста, которая используется для представления слова, фразы или любого другого значимого элемента. Токены используются для разбиения текста на более мелкие, более управляемые единицы, которые можно анализировать с помощью таких языковых моделей.

Почему LongNet впечатляет?

Модель LongNet впечатляет по сравнению с другими LLM, поскольку она может масштабировать длину последовательности до более чем 1 миллиарда токенов с низкой сложностью вычислений и памяти, которая значительно больше в других моделях. Его основными отличительными факторами являются:

  1. Расширенное внимание
  2. Сложность линейных вычислений
  3. Распределенное обучение
  4. Вставная замена
  5. Применимость для многих задач

В своем видео Дэвид Шапиро объясняет, почему LongNet может стать трамплином для создания общего искусственного интеллекта (AGI) в ближайшие годы, поскольку у него многообещающее будущее. Не стесняйтесь посмотреть его видео, чтобы узнать о некоторых интересных взглядах на будущее LLM.

Что вы думаете? Сможем ли мы когда-нибудь вводить содержимое всего Интернета в LLM в виде одной подсказки? И если да, то как? Обо всем этом и многом другом в следующем посте о LongNet, где будет проведен более тщательный анализ этой модели. Так что следите за обновлениями!

Источник: LongNet: масштабирование трансформаторов до 1 000 000 000 токенов — arxiv

Конец очередного информационного бюллетеня kAi Sabancı. Надеемся, вам понравилось. Чтобы не отставать от прогресса в области ИИ, пожалуйста, дождитесь следующего выпуска. Увидимся!