Обучение с небольшим количеством выстрелов — это термин, который становится все более и более известным в мире и сообществе машинного обучения. Причиной этого является неразрывная прочная связь между машинным обучением и данными.

Точность моделей машинного обучения в большинстве случаев всегда коррелирует с объемом данных, доступных во время обучения. Другими словами, в большинстве случаев, если у нас есть больше данных для обучения, существует высокая вероятность, что это будет иметь положительный эффект. от точности нашей модели .

Там, где лежит концепция обучения с небольшим количеством выстрелов и неправильное представление. Судя по названию темы и использованию слова «немного», на первый взгляд может показаться, что наконец-то появилась техника, с помощью которой мы можем строить модели с высокой точностью, используя «меньшее количество» экземпляров данных. Однако именно в этом заключается заблуждение.

Чтобы построить модель с использованием модели обучения с несколькими выстрелами, вам по-прежнему нужны данные. Просто вы строите модель по-другому, поэтому, когда вы хотите классифицировать больше данных, принадлежащих классам, которые, возможно, даже не были доступны во время начального обучения, вам не понадобится столько данных как прежде.

Давайте лучше разберемся на примере:

У вас проблема с классификацией. Вы хотите классифицировать различные виды животных. Допустим, у вас есть 10 классов. Однако вы знаете, что в будущем у вас может быть больше классов, и вы не сможете позволить себе роскошь иметь большой объем данных для новых классов.

Что делается в таком случае. Вы используете обычный объем данных для обучения обычного классификатора классификации этих 10 классов. Однако методология обучения реализована таким образом, чтобы модель могла не нуждаться в большом количестве данных для новых/невидимых классов или классов, у которых не так много экземпляров. Простыми словами, эти возможности — это способность извлекать «мета»-функции из данных.

Таким образом, когда мы переобучаем модель для классификации новых классов. Нам не понадобится огромное количество данных, так как у модели теперь есть дополнительные возможности; что является способностью идентифицировать мета-функции.

В заключение. «Мало» в «Few Shot Learning» не относится к количеству данных, которые должны быть для начальных классов, которые у нас есть, или для начального обучения. Мало относится к объему данных, который потребуется модели для классификации данных после того, как она приобретет способность идентифицировать мета-функции.