Содержание
Buiucani, reg. ALFA apartament cu 1 odaie+living,casa noua,mobilat,(nu-i agentie)-250 euro/lunar
Срок размещения объявления истек.
apartament etajul 3 din 9 spatios si calduros, o odaie mare si living cu pat, autonoma, cu toata tehnica necesara ( frigider, masina de spalat automata, 2 televizoare ) in casa noua amplasare foarte reusita in apropiere de piata DELFIN, centrul comercial ALFA, ORANGE, liceul LIVIU DELEANU, liceul teoretic ANTON CEHOV, liceul PETRU RARES, liceul ONISIFOR GHIBU, Alfa City Shopping Moll, si multe altele pret 250 euro/lunar + gaj ultima luna ( pe timp indelungat )
Характеристики
- Автор объявления Частное лицо
- Жилой фонд Новострой
- Количество комнат 1-комнатная квартира org/PropertyValue»> Этаж 4
- Количество этажей 9
- Тип здания Блочный
- Планировка Индивидуальная
- Общая площадь 50 м²
- Состояние квартиры Индивидуальный дизайн
- Балкон / лоджия 1
- Санузел 1 org/PropertyValue»> Парковочное место Oткрытое
Дополнительно
- Готов к въезду
- Меблирована
- С бытовой техникой
- Автономное отопление
- Стеклопакет
- Паркет
- Бронированная дверь
- Домофон org/PropertyValue»> ТВ кабель
- Лифт
- Детская площадка
Цена:
- 250 €
- ≈ 246 $
- ≈ 4 758 леев
- Регион:
- Молдова
- , Кишинёв мун.
- , Кишинёв
- , Буюканы
- , Alba Iulia org/PostalAddress»> 77/20
Школы
Детские сады
Поликлиники
Продукт. магазины
Кафе
python — В чем разница между параметрами альфа-, лямбда- и гамма-регуляризации для xgboost?
Спросил
Изменено
1 месяц назад
Просмотрено
2k раз
2
Новинка! Сохраняйте вопросы или ответы и организуйте свой любимый контент.
Узнать больше.
У меня есть вопрос:
Чем отличаются условия регуляризации L1 и L2 для весов в алгоритме xgboost.
Как я понимаю, L1 используется LASSO, а L2 используется регрессией RIDGE, и L1 может сжиматься до 0, L2 не может. Я понимаю механику использования простой линейной регрессии, но понятия не имею, как она работает в древовидных моделях.
Более того, гамма — еще один параметр, делающий модель более консервативной. Как я должен заметить разницу между L1 / L2 и параметром гаммы.
Я очень мало нашел в документации по этой проблеме:
лямбда [по умолчанию=1, псевдоним: reg_lambda]
- Член регуляризации L2 для весов. Увеличение этого значения сделает
модель более консервативна.
альфа [по умолчанию=0, псевдоним: reg_alpha]
- Термин регуляризации L1 для весов. Увеличение этого значения сделает
модель более консервативна.
гамма [по умолчанию=0, псевдоним: min_split_loss]
- Минимальное снижение потерь, необходимое для создания следующего раздела на листе
узел дерева. Чем больше гамма, тем консервативнее
алгоритм будет.
Все от 0 до инф.
Заранее спасибо за любой ответ/комментарий!
- python
- pandas
- xgboost
- гиперпараметры
- optuna
Я нашел этот пост в блоге о гамма-регуляризации. Это лучшее, что мне понравилось за 2 месяца. Все еще ищу ответы, но нехватка информации огромна.
Меня тоже это интересует. Лучшее, что я нашел, это оригинальная бумага XGBoost. Раздел 2.1 звучит так, как будто XGBoost использует дерево регрессии в качестве основного строительного блока как для регрессии, так и для классификации. Если это так, то альфа и лямбда, вероятно, работают так же, как и в линейной регрессии.
Гамма управляет высотой деревьев. Большая гамма означает большое препятствие для добавления еще одного уровня дерева. Таким образом, большая гамма упорядочивает модель, выращивая более мелкие деревья. Например, дерево глубины 2 имеет меньший диапазон прогнозируемых значений, чем дерево глубины 10, поэтому такая модель будет иметь более низкую дисперсию.
Зарегистрируйтесь или войдите в систему
Зарегистрируйтесь с помощью Google
Зарегистрироваться через Facebook
Зарегистрируйтесь, используя адрес электронной почты и пароль
Опубликовать как гость
Электронная почта
Требуется, но не отображается
Опубликовать как гость
Электронная почта
Требуется, но не отображается
Параметры XGBoost — документация xgboost 1.
6.2
Перед запуском XGBoost мы должны установить три типа параметров: общие параметры, параметры бустера и параметры задачи.
Общие параметры относятся к тому, какой усилитель мы используем для повышения, обычно древовидную или линейную модель
Параметры бустера зависят от выбранного бустера
Параметры задачи обучения определяют сценарий обучения. Например, задачи регрессии могут использовать разные параметры с задачами ранжирования.
Параметры командной строки относятся к поведению CLI-версии XGBoost.
Примечание
Параметры в пакете R
В пакете R можно использовать .
(точка) для замены подчеркивания в параметрах, например, можно использовать max.depth
для обозначения max_depth
. Параметры подчеркивания также действительны в R.
.
Общая конфигурация
Общие параметры
Параметры для Tree Booster
Дополнительные параметры для
hist
,gpu_hist
иприблизительно
древовидный методДополнительные параметры для Dart Booster (
booster=dart
)Параметры линейного усилителя (
booster=gblinear
)
Параметры задачи обучения
Параметры регрессии Твиди (
target=reg:tweedie
)Параметр для использования Pseudo-Huber (
reg:pseudohubererror
)
Параметры командной строки
Глобальная конфигурация
Следующие параметры можно установить в глобальной области видимости с помощью xgboost. config_context()
(Python) или xgb.set.config()
(R).
подробность
: Подробность печати сообщений. Допустимые значения 0 (без звука), 1 (предупреждение), 2 (информация) и 3 (отладка).use_rmm
: Использовать ли диспетчер памяти RAPIDS (RMM) для выделения памяти графического процессора. Этот параметр применим только тогда, когда XGBoost собран (скомпилирован) с включенным подключаемым модулем RMM. Допустимые значения:истина
иложь
.
Общие параметры
бустер
[по умолчанию =gbtree
]подробность
[по умолчанию=1]Многословность печати сообщений. Допустимые значения: 0 (без звука), 1 (предупреждение), 2 (информация), 3.
(отлаживать). Иногда XGBoost пытается изменить конфигурацию на основе эвристики, которая
отображается как предупреждающее сообщение. Если есть неожиданное поведение, пожалуйста, попробуйте
увеличить значение многословия.
validate_parameters
[по умолчаниюfalse
, кроме интерфейса Python, R и CLI]nthread
[по умолчанию максимальное количество доступных потоков, если не установлено]disable_default_eval_metric
[по умолчанию =ложь
]num_feature
[устанавливается XGBoost автоматически, пользователю не нужно устанавливать]
Параметры для Tree Booster
эта
[по умолчанию = 0,3, псевдоним:learning_rate
]Уменьшение размера шага, используемое при обновлении для предотвращения переобучения. После каждого шага повышения мы можем напрямую получать веса новых функций, а
eta
уменьшает веса функций, чтобы сделать процесс повышения более консервативным.диапазон: [0,1]
гамма
[по умолчанию=0, псевдоним:min_split_loss
]макс_глубина
[по умолчанию=6]min_child_weight
[по умолчанию=1]Минимальная сумма веса экземпляра (гессен), необходимая для дочернего элемента. Если шаг разделения дерева приводит к листовому узлу с суммой весов экземпляров меньше
min_child_weight
, то процесс построения откажется от дальнейшего разделения. В задаче линейной регрессии это просто соответствует минимальному количеству экземпляров, которые должны быть в каждом узле. Чем большеmin_child_weight
, тем более консервативным будет алгоритм.диапазон: [0,∞]
max_delta_step
[по умолчанию=0]Максимальный шаг дельты, который мы допускаем для каждого выходного листа. Если значение равно 0, это означает, что ограничений нет. Если для него задано положительное значение, это может помочь сделать шаг обновления более консервативным. Обычно этот параметр не нужен, но он может помочь в логистической регрессии, когда класс крайне несбалансирован. Установите значение от 1 до 10, это может помочь контролировать обновление.
диапазон: [0,∞]
подвыборка
[по умолчанию=1]метод_выборки
[по умолчанию =универсальный
]Метод, используемый для выборки учебных экземпляров.
униформа
: каждый экземпляр обучения имеет равную вероятность быть выбранным. Обычно устанавливается
подвыборка
>= 0,5 для хороших результатов.92}\)).
подвыборка
может быть установлена на уровне 0,1 без потери точности модели. Обратите внимание, что это
метод выборки поддерживается, только если дляtree_method
установлено значениеgpu_hist
; другое дерево
методы поддерживают толькоунифицированную выборку
.
colsample_bytree
,colsample_bylevel
,colsample_bynode
[по умолчанию=1]Это семейство параметров для подвыборки столбцов.
Все параметры
colsample_by*
имеют диапазон (0, 1), значение по умолчанию 1 и определяют долю столбцов для субдискретизации.colsample_bytree
— отношение подвыборки столбцов при построении каждого дерева. Подвыборка происходит один раз для каждого построенного дерева.colsample_bylevel
— отношение подвыборки столбцов для каждого уровня. Подвыборка происходит один раз для каждого нового уровня глубины, достигнутого в дереве. Столбцы выбираются из набора столбцов, выбранных для текущего дерева.colsample_bynode
— отношение подвыборки столбцов для каждого узла (разделение). Подвыборка происходит каждый раз, когда оценивается новое разбиение. Столбцы выбираются из набора столбцов, выбранного для текущего уровня.colsample_by*
параметры работают кумулятивно. Например,
комбинация{'colsample_bytree':0,5, 'colsample_bylevel':0,5,
с 64 функциями оставит 8 функций на выбор в
'colsample_bynode':0.5}
каждый раскол.Используя Python или пакет R, можно установить
feature_weights
для DMatrix на
определить вероятность того, что каждый признак будет выбран при использовании выборки столбцов.
В интерфейсе sklearn есть аналогичный параметр для методаfit
.
лямбда
[по умолчанию=1, псевдоним:reg_lambda
]альфа
[по умолчанию=0, псевдоним:reg_alpha
]tree_method
строка [по умолчанию =авто
]Алгоритм построения дерева, используемый в XGBoost. См. описание в справочном документе и методах дерева.
XGBoost поддерживает
приблизительно
,hist
иgpu_hist
для распределенного обучения. Экспериментальная поддержка внешней памяти доступна дляприблизительно
иgpu_hist
.Варианты:
авто
,точно
,приблизительно
,гист
,gpu_hist
, это
сочетание часто используемых программ обновления. Для других средств обновления, таких как, обновление
, установите
параметрupdater
напрямую.авто
: Используйте эвристику для выбора самого быстрого метода.Для небольшого набора данных будет использоваться точный жадный (
точный
).Для больших наборов данных приблизительный алгоритм (
приблизительно
) будет выбран. Его
рекомендуется попробоватьhist
иgpu_hist
для более высокой производительности с большими
набор данных.
(gpu_hist
) имеет поддержку внешней памятиПоскольку старое поведение всегда использует жадный режим на одной машине, пользователь получит
сообщение, когда выбран приблизительный алгоритм, чтобы уведомить об этом выборе.
точный
: Точный жадный алгоритм. Перечисляет всех разделенных кандидатов.приблизительно
: Приблизительный жадный алгоритм с использованием квантильного эскиза и гистограммы градиента.hist
: более быстрый приближенный жадный алгоритм, оптимизированный для гистограммы.gpu_hist
: реализация GPU алгоритмаhist
.
sketch_eps
[по умолчанию=0,03]Используется только для
updater=grow_local_histmaker
.Это примерно соответствует
O(1 / sketch_eps)
количеству бинов.
По сравнению с прямым выбором количества бинов это дает теоретическую гарантию точности эскиза.Обычно пользователю не нужно настраивать это.
Но рассмотрите возможность установки меньшего числа для более точного перечисления разделенных кандидатов.диапазон: (0, 1)
scale_pos_weight
[по умолчанию=1]Контроль баланса положительных и отрицательных весов, полезно для несбалансированных классов. Типичное значение для рассмотрения:
сумма(отрицательные экземпляры)/сумма(положительные экземпляры)
. Дополнительные сведения см. в разделе Настройка параметров. Также смотрите демо конкурса Higgs Kaggle для примеров: R, py1, py2, py3.
средство обновления
Разделенная запятыми строка, определяющая последовательность запускаемых средств обновления дерева, обеспечивающая модульный способ построения и изменения деревьев. Это расширенный параметр, который обычно устанавливается автоматически в зависимости от некоторых других параметров. Однако он также может быть установлен явно пользователем. Существуют следующие программы обновления:
row_colmaker
: нераспределенное построение деревьев на основе столбцов.row_histmaker
: построение распределенного дерева с разделением данных на основе строк на основе глобального предложения подсчета гистограмм.row_local_histmaker
: на основе подсчета локальной гистограммы.Grow_Quantile_histmaker
: Вырастить дерево с использованием квантованной гистограммы.row_gpu_hist
: Вырастить дерево с помощью графического процессора.sync
: синхронизирует деревья во всех распределенных узлах.обновление
: обновляет статистику дерева и/или значения листа на основе текущих данных. Обратите внимание, что случайная подвыборка строк данных не выполняется.prune
: удаляет разбиения, где loss < min_split_loss (или gamma) и узлы, глубина которых превышаетmax_depth
.
refresh_leaf
[по умолчанию=1]тип_процесса
[по умолчанию =по умолчанию
]Тип запускаемого процесса повышения.
Варианты:
по умолчанию
,обновление
по умолчанию
: Обычный процесс повышения, который создает новые деревья.обновление
: Начинается с существующей модели и обновляет только ее деревья. На каждой повышающей итерации берется дерево из исходной модели, для этого дерева запускается указанная последовательность средств обновления, и к новой модели добавляется модифицированное дерево. Новая модель будет иметь такое же или меньшее количество деревьев, в зависимости от количества выполненных итераций бустинга. В настоящее время с этим типом процесса можно эффективно использовать следующие встроенные средства обновления:обновить
,удалить
. Сprocess_type=update
нельзя использовать средства обновления, создающие новые деревья.
Grow_Policy
[по умолчанию =по глубине
]Управляет способом добавления новых узлов в дерево.
В настоящее время поддерживается, только если для
tree_method
установлено значениеhist
,приблизительно
илиgpu_hist
.Варианты:
по глубине
,направляющая потерь
max_leaves
[по умолчанию=0]max_bin
, [по умолчанию=256]Используется, только если для
tree_method
установлено значениеhist
,приблизительно
илиgpu_hist
.Максимальное количество дискретных интервалов для непрерывных объектов.
Увеличение этого числа повышает оптимальность разделения за счет увеличения времени вычислений.
предиктор
, [по умолчанию =авто
]num_parallel_tree
, [по умолчанию=1]monotone_constraints
взаимодействие_ограничения
Ограничения для взаимодействия, представляющие разрешенные взаимодействия. Ограничения должны
указываться в виде списка вложений, т.е.[[0, 1], [2, 3, 4]]
, где каждый внутренний
list — это группа индексов функций, которым разрешено взаимодействовать друг с другом.
Дополнительную информацию см. в разделе Ограничения взаимодействия элементов.
Дополнительные параметры для
hist
, gpu_hist
и приблизительно
древовидный метод
single_precision_histogram
, [по умолчанию =false
]max_cat_to_onehot
Новое в версии 1. 6.
Примечание
Поддержка этого параметра является экспериментальной.
Порог для принятия решения о том, следует ли XGBoost использовать разделение на основе горячего кодирования для
Категориальные данные. Когда количество категорий меньше порога, то однократно
выбрана кодировка, иначе категории будут разделены на дочерние узлы.
Релевантно только для регрессии и бинарной классификации. Кроме того,точный метод дерева
не поддерживается
Дополнительные параметры для Dart Booster (
booster=dart
)
Примечание
Использование Predict()
с усилителем DART
Если объект бустера относится к типу DART,
некоторые из деревьев будут оценены. Это приведет к неправильным результатам, если данных
а не обучающие данные. Чтобы получить правильные результаты на тестовых наборах, установите диапазон_итераций от
до
ненулевое значение, например.
preds = bst.predict (dtest, iteration_range = (0, num_round))
sample_type
[по умолчанию =универсальный
]normalize_type
[по умолчанию =дерево
]rate_drop
[по умолчанию=0.0]one_drop
[по умолчанию=0]skip_drop
[по умолчанию=0.0]
Параметры линейного усилителя (
booster=gblinear
)
лямбда
[по умолчанию=0, псевдоним:reg_lambda
]альфа
[по умолчанию=0, псевдоним:reg_alpha
]средство обновления
[по умолчанию =дробовик
]feature_selector
[по умолчанию =циклический
]Выбор функций и способ заказа 92) сложность. Он полностью детерминирован. Это позволяет ограничить выбор до
top_k
объектов на группу с наибольшей величиной одномерного изменения веса, установив параметрtop_k
. Это уменьшит сложность доO(num_feature*top_k)
.экономный
: бережливый, почти жадный селектор функций. Перед циклическими обновлениями функции переупорядочиваются по убыванию величины их одномерных изменений веса. Эта операция является многопоточной и представляет собой аппроксимацию линейной сложности квадратичного жадного выбора. Это позволяет ограничить выбор доtop_k
объектов на группу с наибольшей величиной одномерного изменения веса, установив параметрtop_k
.
top_k
[по умолчанию=0]
Параметры задачи обучения
Укажите задачу обучения и соответствующую цель обучения. Варианты цели ниже:
цель
[по умолчанию=reg:squarederror]92\). Все входные метки должны быть больше -1. Также см. метрику
rmsle
для возможной проблемы с этой целью.reg: логистика
: логистическая регрессия.reg:pseudohubererror
: регрессия с псевдохуберовской потерей, дважды дифференцируемая альтернатива абсолютной потере.двоичный: логистика
: логистическая регрессия для двоичной классификации, выходная вероятностьbinary:logitraw
: логистическая регрессия для бинарной классификации, выходная оценка до логистического преобразованиябинарный: шарнир
: потеря шарнира для бинарной классификации. Это делает предсказания 0 или 1, а не производит вероятности.count:poisson
: регрессия Пуассона для данных подсчета, выходное среднее значение распределения Пуассона.survival:cox
: Регрессия Кокса для цензурированных справа данных времени выживания (отрицательные значения считаются цензурированными справа).
Обратите внимание, что прогнозы возвращаются по шкале отношения рисков (т. е. как HR = exp(marginal_prediction) в функции пропорционального рискаh(t) = h0(t) * HR
).выживание:задняя часть
: Ускоренная модель времени отказа для подвергнутых цензуре данных о времени выживания.
Подробности см. в разделе «Анализ выживания с ускоренным временем отказа».aft_loss_distribution
: Функция плотности вероятности, используемаявыживания:задняя цель
и метрикаft-nloglik
.multi: softmax
: установите XGBoost для выполнения мультиклассовой классификации с использованием цели softmax, вам также необходимо установить num_class (количество классов)multi:softprob
: то же, что и softmax, но выводит векторndata * nclass
, который может быть преобразован в матрицуndata * nclass
. Результат содержит предсказанную вероятность каждой точки данных, принадлежащей каждому классу.rank:pairwise
: Используйте LambdaMART для попарного ранжирования, при котором попарные потери минимальныrank:ndcg
: Используйте LambdaMART для выполнения ранжирования по списку, где нормализованный дисконтированный кумулятивный выигрыш (NDCG) максималенrank:map
: Используйте LambdaMART для ранжирования по списку с максимальной средней точностью (MAP)reg:gamma
: гамма-регрессия с логарифмической связью. Выход представляет собой среднее значение гамма-распределения. Это может быть полезно, например, для моделирования серьезности страховых случаев или для любого результата, который может быть гамма-распределением.reg:tweedie
: Регрессия Tweedie с лог-связью. Это может быть полезно, например, для моделирования общих убытков в страховании или для любого результата, который может быть распределен Твиди.
base_score
[по умолчанию=0,5]Начальная оценка прогноза всех экземпляров, глобальное смещение
При достаточном количестве итераций изменение этого значения не будет иметь слишком большого эффекта.
eval_metric
[по умолчанию в соответствии с целью]Метрики оценки для данных проверки, метрика по умолчанию будет назначена в соответствии с целью (rmse для регрессии и logloss для классификации, средняя средняя точность для ранжирования) 92}\). Метрика по умолчанию для цели
reg:squaredlogerror
. Эта метрика уменьшает количество ошибок, вызванных выбросами в наборе данных. Но поскольку используется функцияlog
,rmsle
может выводитьnan
, когда значение прогноза меньше -1. Другие требования см. в разделеreg:squaredlogerror
.mae
: средняя абсолютная ошибкаmape
: средняя абсолютная ошибка в процентахmphe
: средняя ошибка псевдо-Хьюбера. Метрика по умолчанию для целиreg:pseudohubererror
.logloss
: отрицательное логарифмическое правдоподобиеошибка
: Частота ошибок двоичной классификации. Он рассчитывается как#(неправильные случаи)/#(все случаи)
. Для прогнозов оценка будет рассматривать экземпляры со значением прогноза больше 0,5 как положительные экземпляры, а остальные — как отрицательные экземпляры.error@t
: пороговое значение двоичной классификации, отличное от 0,5, может быть указано путем предоставления числового значения через «t».ошибка
: Частота ошибок мультиклассовой классификации. Он рассчитывается как#(неправильные случаи)/#(все случаи)
.mlogloss
: Многоклассовый logloss.auc
: Область рабочей характеристики приемника под кривой.
Доступно для задач классификации и обучения на ранг.При использовании с бинарной классификацией цель должна быть
двоичная:логистика
или аналогичные функции, которые работают с вероятностью.При использовании с многоклассовой классификацией цель должна быть
multi:softprob
вместоmulti:softmax
, так как последняя не выводит вероятность. Также AUC рассчитывается как 1-по сравнению с отдыхом с эталонным классом, взвешенным по распространенности класса.При использовании с задачей LTR AUC вычисляется путем сравнения пар документов для подсчета правильно отсортированных пар. Это соответствует попарному обучению ранжированию. Реализация имеет некоторые проблемы со средней AUC вокруг групп и распределенных рабочих, которые не определены четко.
На одной машине расчет AUC точен. В распределенной среде AUC представляет собой средневзвешенное значение AUC обучающих строк на каждом узле, поэтому распределенный AUC является аппроксимацией, чувствительной к распределению данных между рабочими процессами. Используйте другую метрику в распределенных средах, если важны точность и воспроизводимость.
Если входной набор данных содержит только отрицательные или положительные выборки, на выходе будет NaN . Поведение определяется реализацией, например,
scikit-learn
вместо этого возвращает \(0,5\).
aucpr
: Площадь под кривой PR.
Доступно для задач классификации и обучения на ранг.После XGBoost 1.6 как требования, так и ограничения для использования
aucpr
в задаче классификации аналогичныauc
. Для задачи ранжирования поддерживается только двоичная метка релевантности \(y \in [0, 1]\). Отличается от карты(средняя точность)
,aucpr
вычисляет интерполированную площадь под кривой точного отзыва, используя непрерывную интерполяцию.ndcg
: Нормализованная дисконтированная совокупная прибылькарта
: Средняя точностьndcg@n
,map@n
: ‘n’ может быть назначен как целое число, чтобы отсечь верхние позиции в списках для оценки.ndcg-
,карта-
,ndcg@n-
,map@n-
: В XGBoost NDCG и MAP будут оценивать список без положительных образцов как 1. Добавляя «-» в метрику оценки, XGBoost будет оценивать эти баллы. как 0, чтобы быть последовательным при некоторых условиях.poisson-nloglik
: отрицательное логарифмическое правдоподобие для регрессии Пуассонаgamma-nloglik
: отрицательное логарифмическое правдоподобие для гамма-регрессииcox-nloglik
: отрицательное частичное логарифмическое правдоподобие для регрессии пропорциональных рисков Коксагамма-отклонение
: остаточное отклонение для гамма-регрессииtweedie-nloglik
: отрицательное логарифмическое правдоподобие для регрессии Твиди (при указанном значении параметраtweedie_variance_power
)ft-nloglik
: Отрицательная логарифмическая вероятность модели ускоренного времени отказа.
Подробности см. в разделе «Анализ выживания с ускоренным временем отказа».interval-regression-accuracy
: Доля точек данных, предсказанные метки которых попадают в цензурированные интервалом метки.
Применимо только к данным с интервальной цензурой. Подробности см. в разделе «Анализ выживания с ускоренным временем отказа».
семя
[по умолчанию=0]
seed_per_iteration
[по умолчанию = false
]
Параметры регрессии Твиди (
цель=reg:tweedie
)
Параметр для использования Pseudo-Huber (
reg:pseudohubererror
)
Параметры командной строки
Следующие параметры используются только в консольной версии XGBoost
num_round
данные
тест:данные
период_сохранения
[по умолчанию=0]задача
[по умолчанию =поезд
] варианты:поезд
,пред
,eval
,дамп
поезд
: обучение с использованием данныхпред
: прогнозирование для теста: данныеeval
: для оценки статистики, указанной параметромeval[имя]=имя файла
дамп
: для вывода изученной модели в текстовый формат
model_in
[по умолчанию=NULL]Путь к входной модели, нужен для задач
test
,eval
,dump
.