ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 17.10.2024
Просмотров: 9
Скачиваний: 0
ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.
1. Обучение с учителем характеризуется
*Целью обучить агента принимать оптимальные решения в среде
* Отсутствием размеченной выборки
*Наличием размеченной выборки
2. Случайный лес – это:
*Составление композиционного алгоритма при помощи подбора случайных алгоритмов машинного обучения и их последующего голосования
*Композиционный алгоритм (обычно над решающими деревьями), основанный на идее построения нового элемента композиции на каждой итерации таким образом, что следующее приближение вектора ответов алгоритма отличается от текущего на градиент ошибки
*Метод голосования решающих деревьев, каждое из которых было обучено на собственной подвыборке объектов и подвыборке признаков
3. Задачу машинного обучения можно представить в виде последовательности выполнения действий по выбору оптимальной решающей функции f из многопараметрического семейства F. Задача обучения сводится к задаче оптимизации на этапе:
*Выбора семейства F
*Оценки качества выбранной функции f из семейства F
*Поиска наилучшей функции из семейства F
4. Решающие деревья обладают следующими свойствами:
*Плохо интерпретируются, чувствительны к шуму, иногда отказывают в классификации данных *Строят разделяющую гиперплоскость, не чувствительны к шуму, не переобучаются
*Легко обрабатывают пропуски данных, хорошо интерпретируются, исключают отказы классификации, обрабатывают разнотипные и неотмасштабированные данные
*Способны решать лишь задачу регрессии
5. Задача автоматической идентификации марки машины по ее изображению – это задача
*Регрессии
*Бинарной классификации
*Многоклассовой классификации
6. Если мы предсказываем среднюю стоимость машины в зависимости от ее класса, то класс представляет собой
*Бинарный признак
*Непрерывный признак
*Категориальный признак
7. Задача автоматического выделения похожих новостных статей без размеченной выборки – это задача
*Регрессии
*Бинарной классификации
*Кластеризации
8. Задачу машинного обучения можно представить в виде последовательности выполнения действий по выбору оптимальной решающей функции f из многопараметрического семейства F. Выбор модели машинного обучения происходит на этапе:
*Выбора семейства F
*Оценки качества выбранной функции f из семейства F
*Поиска наилучшей функции из семейства F
9. Выберете верное утверждение:
*Логистическая регрессия решает задачу регрессии
*Логистическая регрессия нужна для поиска оптимальных маршрутов грузоперевозок
*Логистическая регрессия решает задачу классификации
10. Задача классификации – это задача
*Обучения с учителем
*Обучения без учителя
*Обучения с подкреплением
11. Эмпирический риск вводится исходя из предположения, что
*Оценка качества работы алгоритма на обучающей выборке примерно совпадает с ожидаемым качеством работы алгоритма вне ее
*Обучающая выборка выбрана из нормального распределения по всем признакам
*Оценка риска только на обучающей выборке – более правильный подход, чем оценка риска на всех возможных данных
12. Недостатки k-means:
*Необходимость подбирать k, неустойчивость от выбора начального приближения центров кластеров
*Неинтерпретируемость
*Плохое качество работы
13. Выберете верное утверждение:
*Для линейной регрессии возможно аналитически найти решение задачи минимизации эмпирического риска только в одномерном случае
*Линейная регрессия допускает аналитическое решение задачи минимизации суммы квадратов расстояния от предсказанных меток до верных ответов в случае любой размерности
*Для линейной регрессии не существует решения задачи минимизации эмпирического риска
14. Процедура LearnID3 состоит в:
*Последовательном построении решающего дерева посредством поиска предиката с максимальной информативностью на каждом шаге и разделении обучающей выборки на две части по этому предикату до тех пор, пока не будет достигнуто нужное число вершин в дереве
*Последовательном построении решающего дерева посредством разбиения обучающей выборки на случайные подвыборки с сохранением отношения числа элементов одного класса к числу элементов другого класса
*В индексации вершин решающего дерева особым способом
*В особом способе полива тропических растений в наших широтах
15. Метод K-Means - Это:
*Метрический метод классификации, основанный на усреднении расстояний до k ближайших соседей
*Метод кластеризации
*Метод валидации модели, основанный на усреднении ошибки по к прогонам модели на тестовых данных
16. В каком случае метрика accuracy будет репрезентативной
*Когда все виды ошибок имеют для нас одинаковую важность, и может быть дисбаланс классов *Когда все виды ошибок имеют для нас одинаковую важность, но дисбаланса классов быть не должно
* Когда дисбаланс классов может быть, и ошибки могут иметь любое соотношение важности
17. Методопорныхвекторов (Support Vectors Machine, SVM):
*Строит оптимальную разделяющую гиперплоскость, максимизируя ширину полосы между двумя классами
*Аппроксимирует искомую функцию, обучаясь при помощи градиентных методов, решает задачу регрессии
*Проводит гиперповерхность, минимизируя сумму квадратов расстояний элементов обучающей выборки до этой гиперповерхности
18. Задача понижения размерности признакового пространства – это задача
*Обучения с учителем
*Обучения без учителя
*Обучения с подкреплением
19. Градиентный бустинг - это:
*Усиление обобщающей способности модели посредством использования нескольких градиентных методов оптимизации
*Композиционный алгоритм (обычно над решающими деревьями), основанный на идее построения нового элемента композиции на каждой итерации таким образом, что следующее приближение вектора ответов алгоритма отличается от текущего на градиент ошибки
*Композиционный алгоритм над решающими деревьями,
основанный на идее голосования классификаторов, проводимого особым способом, с приписыванием константных весов каждому классификатору
20. Если мы предсказываем средние затраты на обслуживание машины, то максимальная скорость разгона машины – это
*Бинарный признак
*Непрерывный признак
*Номинальный признак