Reg alfa: Регистрация ИП и ООО с Альфа-Банком

Buiucani, reg. ALFA apartament cu 1 odaie+living,casa noua,mobilat,(nu-i agentie)-250 euro/lunar

Срок размещения объявления истек.

apartament etajul 3 din 9 spatios si calduros, o odaie mare si living cu pat, autonoma, cu toata tehnica necesara ( frigider, masina de spalat automata, 2 televizoare ) in casa noua amplasare foarte reusita in apropiere de piata DELFIN, centrul comercial ALFA, ORANGE, liceul LIVIU DELEANU, liceul teoretic ANTON CEHOV, liceul PETRU RARES, liceul ONISIFOR GHIBU, Alfa City Shopping Moll, si multe altele pret 250 euro/lunar + gaj ultima luna ( pe timp indelungat )

Характеристики

  • Автор объявления Частное лицо
  • Жилой фонд Новострой
  • Количество комнат 1-комнатная квартира
  • org/PropertyValue»> Этаж 4
  • Количество этажей 9
  • Тип здания Блочный
  • Планировка Индивидуальная
  • Общая площадь 50 м²
  • Состояние квартиры Индивидуальный дизайн
  • Балкон / лоджия 1
  • Санузел 1
  • org/PropertyValue»> Парковочное место Oткрытое

Дополнительно

  • Готов к въезду
  • Меблирована
  • С бытовой техникой
  • Автономное отопление
  • Стеклопакет
  • Паркет
  • Бронированная дверь
  • Домофон
  • org/PropertyValue»> ТВ кабель
  • Лифт
  • Детская площадка

Цена:

  • 250 €
  • ≈ 246 $
  • ≈ 4 758 леев
Регион:
Молдова
, Кишинёв мун.
, Кишинёв
, Буюканы
, Alba Iulia
org/PostalAddress»> 77/20

Школы

Детские сады

Поликлиники

Продукт. магазины

Кафе

python — В чем разница между параметрами альфа-, лямбда- и гамма-регуляризации для xgboost?

Спросил

Изменено
1 месяц назад

Просмотрено
2k раз

2

Новинка! Сохраняйте вопросы или ответы и организуйте свой любимый контент.
Узнать больше.

У меня есть вопрос:

Чем отличаются условия регуляризации L1 и L2 для весов в алгоритме xgboost.

Как я понимаю, L1 используется LASSO, а L2 используется регрессией RIDGE, и L1 может сжиматься до 0, L2 не может. Я понимаю механику использования простой линейной регрессии, но понятия не имею, как она работает в древовидных моделях.

Более того, гамма — еще один параметр, делающий модель более консервативной. Как я должен заметить разницу между L1 / L2 и параметром гаммы.

Я очень мало нашел в документации по этой проблеме:

лямбда [по умолчанию=1, псевдоним: reg_lambda]

  • Член регуляризации L2 для весов. Увеличение этого значения сделает
    модель более консервативна.

альфа [по умолчанию=0, псевдоним: reg_alpha]

  • Термин регуляризации L1 для весов. Увеличение этого значения сделает
    модель более консервативна.

гамма [по умолчанию=0, псевдоним: min_split_loss]

  • Минимальное снижение потерь, необходимое для создания следующего раздела на листе
    узел дерева. Чем больше гамма, тем консервативнее
    алгоритм будет.

Все от 0 до инф.

Заранее спасибо за любой ответ/комментарий!

  • python
  • pandas
  • xgboost
  • гиперпараметры
  • optuna

Я нашел этот пост в блоге о гамма-регуляризации. Это лучшее, что мне понравилось за 2 месяца. Все еще ищу ответы, но нехватка информации огромна.

Меня тоже это интересует. Лучшее, что я нашел, это оригинальная бумага XGBoost. Раздел 2.1 звучит так, как будто XGBoost использует дерево регрессии в качестве основного строительного блока как для регрессии, так и для классификации. Если это так, то альфа и лямбда, вероятно, работают так же, как и в линейной регрессии.

Гамма управляет высотой деревьев. Большая гамма означает большое препятствие для добавления еще одного уровня дерева. Таким образом, большая гамма упорядочивает модель, выращивая более мелкие деревья. Например, дерево глубины 2 имеет меньший диапазон прогнозируемых значений, чем дерево глубины 10, поэтому такая модель будет иметь более низкую дисперсию.

Зарегистрируйтесь или войдите в систему

Зарегистрируйтесь с помощью Google

Зарегистрироваться через Facebook

Зарегистрируйтесь, используя адрес электронной почты и пароль

Опубликовать как гость

Электронная почта

Требуется, но не отображается

Опубликовать как гость

Электронная почта

Требуется, но не отображается

Параметры XGBoost — документация xgboost 1.

6.2

Перед запуском XGBoost мы должны установить три типа параметров: общие параметры, параметры бустера и параметры задачи.

  • Общие параметры относятся к тому, какой усилитель мы используем для повышения, обычно древовидную или линейную модель

  • Параметры бустера зависят от выбранного бустера

  • Параметры задачи обучения определяют сценарий обучения. Например, задачи регрессии могут использовать разные параметры с задачами ранжирования.

  • Параметры командной строки относятся к поведению CLI-версии XGBoost.

Примечание

Параметры в пакете R

В пакете R можно использовать . (точка) для замены подчеркивания в параметрах, например, можно использовать max.depth для обозначения max_depth . Параметры подчеркивания также действительны в R.

.

  • Общая конфигурация

  • Общие параметры

    • Параметры для Tree Booster

    • Дополнительные параметры для hist , gpu_hist и приблизительно древовидный метод

    • Дополнительные параметры для Dart Booster ( booster=dart )

    • Параметры линейного усилителя ( booster=gblinear )

  • Параметры задачи обучения

    • Параметры регрессии Твиди ( target=reg:tweedie )

    • Параметр для использования Pseudo-Huber ( reg:pseudohubererror )

  • Параметры командной строки

Глобальная конфигурация

Следующие параметры можно установить в глобальной области видимости с помощью xgboost. config_context() (Python) или xgb.set.config() (R).

  • подробность : Подробность печати сообщений. Допустимые значения 0 (без звука), 1 (предупреждение), 2 (информация) и 3 (отладка).

  • use_rmm : Использовать ли диспетчер памяти RAPIDS (RMM) для выделения памяти графического процессора. Этот параметр применим только тогда, когда XGBoost собран (скомпилирован) с включенным подключаемым модулем RMM. Допустимые значения: истина и ложь .

Общие параметры

  • бустер [по умолчанию = gbtree ]

  • подробность [по умолчанию=1]

    • Многословность печати сообщений. Допустимые значения: 0 (без звука), 1 (предупреждение), 2 (информация), 3.
      (отлаживать). Иногда XGBoost пытается изменить конфигурацию на основе эвристики, которая
      отображается как предупреждающее сообщение. Если есть неожиданное поведение, пожалуйста, попробуйте
      увеличить значение многословия.

  • validate_parameters [по умолчанию false , кроме интерфейса Python, R и CLI]

  • nthread [по умолчанию максимальное количество доступных потоков, если не установлено]

  • disable_default_eval_metric [по умолчанию = ложь ]

  • num_feature [устанавливается XGBoost автоматически, пользователю не нужно устанавливать]

Параметры для Tree Booster

  • эта [по умолчанию = 0,3, псевдоним: learning_rate ]

    • Уменьшение размера шага, используемое при обновлении для предотвращения переобучения. После каждого шага повышения мы можем напрямую получать веса новых функций, а eta уменьшает веса функций, чтобы сделать процесс повышения более консервативным.

    • диапазон: [0,1]

  • гамма [по умолчанию=0, псевдоним: min_split_loss ]

  • макс_глубина [по умолчанию=6]

  • min_child_weight [по умолчанию=1]

    • Минимальная сумма веса экземпляра (гессен), необходимая для дочернего элемента. Если шаг разделения дерева приводит к листовому узлу с суммой весов экземпляров меньше min_child_weight , то процесс построения откажется от дальнейшего разделения. В задаче линейной регрессии это просто соответствует минимальному количеству экземпляров, которые должны быть в каждом узле. Чем больше min_child_weight , тем более консервативным будет алгоритм.

    • диапазон: [0,∞]

  • max_delta_step [по умолчанию=0]

    • Максимальный шаг дельты, который мы допускаем для каждого выходного листа. Если значение равно 0, это означает, что ограничений нет. Если для него задано положительное значение, это может помочь сделать шаг обновления более консервативным. Обычно этот параметр не нужен, но он может помочь в логистической регрессии, когда класс крайне несбалансирован. Установите значение от 1 до 10, это может помочь контролировать обновление.

    • диапазон: [0,∞]

  • подвыборка [по умолчанию=1]

  • метод_выборки [по умолчанию = универсальный ]

    • Метод, используемый для выборки учебных экземпляров.

    • униформа : каждый экземпляр обучения имеет равную вероятность быть выбранным. Обычно устанавливается
      подвыборка >= 0,5 для хороших результатов.

    • 92}\)).
      подвыборка может быть установлена ​​на уровне 0,1 без потери точности модели. Обратите внимание, что это
      метод выборки поддерживается, только если для tree_method установлено значение gpu_hist ; другое дерево
      методы поддерживают только унифицированную выборку .

  • colsample_bytree , colsample_bylevel , colsample_bynode [по умолчанию=1]

    • Это семейство параметров для подвыборки столбцов.

    • Все параметры colsample_by* имеют диапазон (0, 1), значение по умолчанию 1 и определяют долю столбцов для субдискретизации.

    • colsample_bytree — отношение подвыборки столбцов при построении каждого дерева. Подвыборка происходит один раз для каждого построенного дерева.

    • colsample_bylevel — отношение подвыборки столбцов для каждого уровня. Подвыборка происходит один раз для каждого нового уровня глубины, достигнутого в дереве. Столбцы выбираются из набора столбцов, выбранных для текущего дерева.

    • colsample_bynode — отношение подвыборки столбцов для каждого узла (разделение). Подвыборка происходит каждый раз, когда оценивается новое разбиение. Столбцы выбираются из набора столбцов, выбранного для текущего уровня.

    • colsample_by* параметры работают кумулятивно. Например,
      комбинация {'colsample_bytree':0,5, 'colsample_bylevel':0,5,
      'colsample_bynode':0.5}
      с 64 функциями оставит 8 функций на выбор в
      каждый раскол.

      Используя Python или пакет R, можно установить feature_weights для DMatrix на
      определить вероятность того, что каждый признак будет выбран при использовании выборки столбцов.
      В интерфейсе sklearn есть аналогичный параметр для метода fit .

  • лямбда [по умолчанию=1, псевдоним: reg_lambda ]

  • альфа [по умолчанию=0, псевдоним: reg_alpha ]

  • tree_method строка [по умолчанию = авто ]

    • Алгоритм построения дерева, используемый в XGBoost. См. описание в справочном документе и методах дерева.

    • XGBoost поддерживает приблизительно , hist и gpu_hist для распределенного обучения. Экспериментальная поддержка внешней памяти доступна для приблизительно и gpu_hist .

    • Варианты: авто , точно , приблизительно , гист , gpu_hist , это
      сочетание часто используемых программ обновления. Для других средств обновления, таких как , обновление , установите
      параметр updater напрямую.

      • авто : Используйте эвристику для выбора самого быстрого метода.

        • Для небольшого набора данных будет использоваться точный жадный ( точный ).

        • Для больших наборов данных приблизительный алгоритм ( приблизительно ) будет выбран. Его
          рекомендуется попробовать hist и gpu_hist для более высокой производительности с большими
          набор данных.
          ( gpu_hist ) имеет поддержку внешней памяти .

        • Поскольку старое поведение всегда использует жадный режим на одной машине, пользователь получит
          сообщение, когда выбран приблизительный алгоритм, чтобы уведомить об этом выборе.

      • точный : Точный жадный алгоритм. Перечисляет всех разделенных кандидатов.

      • приблизительно : Приблизительный жадный алгоритм с использованием квантильного эскиза и гистограммы градиента.

      • hist : более быстрый приближенный жадный алгоритм, оптимизированный для гистограммы.

      • gpu_hist : реализация GPU алгоритма hist .

  • sketch_eps [по умолчанию=0,03]

    • Используется только для updater=grow_local_histmaker .

    • Это примерно соответствует O(1 / sketch_eps) количеству бинов.
      По сравнению с прямым выбором количества бинов это дает теоретическую гарантию точности эскиза.

    • Обычно пользователю не нужно настраивать это.
      Но рассмотрите возможность установки меньшего числа для более точного перечисления разделенных кандидатов.

    • диапазон: (0, 1)

  • scale_pos_weight [по умолчанию=1]

    • Контроль баланса положительных и отрицательных весов, полезно для несбалансированных классов. Типичное значение для рассмотрения: сумма(отрицательные экземпляры)/сумма(положительные экземпляры) . Дополнительные сведения см. в разделе Настройка параметров. Также смотрите демо конкурса Higgs Kaggle для примеров: R, py1, py2, py3.

  • средство обновления

    • Разделенная запятыми строка, определяющая последовательность запускаемых средств обновления дерева, обеспечивающая модульный способ построения и изменения деревьев. Это расширенный параметр, который обычно устанавливается автоматически в зависимости от некоторых других параметров. Однако он также может быть установлен явно пользователем. Существуют следующие программы обновления:

      • row_colmaker : нераспределенное построение деревьев на основе столбцов.

      • row_histmaker : построение распределенного дерева с разделением данных на основе строк на основе глобального предложения подсчета гистограмм.

      • row_local_histmaker : на основе подсчета локальной гистограммы.

      • Grow_Quantile_histmaker : Вырастить дерево с использованием квантованной гистограммы.

      • row_gpu_hist : Вырастить дерево с помощью графического процессора.

      • sync : синхронизирует деревья во всех распределенных узлах.

      • обновление : обновляет статистику дерева и/или значения листа на основе текущих данных. Обратите внимание, что случайная подвыборка строк данных не выполняется.

      • prune : удаляет разбиения, где loss < min_split_loss (или gamma) и узлы, глубина которых превышает max_depth .

  • refresh_leaf [по умолчанию=1]

  • тип_процесса [по умолчанию = по умолчанию ]

    • Тип запускаемого процесса повышения.

    • Варианты: по умолчанию , обновление

      • по умолчанию : Обычный процесс повышения, который создает новые деревья.

      • обновление : Начинается с существующей модели и обновляет только ее деревья. На каждой повышающей итерации берется дерево из исходной модели, для этого дерева запускается указанная последовательность средств обновления, и к новой модели добавляется модифицированное дерево. Новая модель будет иметь такое же или меньшее количество деревьев, в зависимости от количества выполненных итераций бустинга. В настоящее время с этим типом процесса можно эффективно использовать следующие встроенные средства обновления: обновить , удалить . С process_type=update нельзя использовать средства обновления, создающие новые деревья.

  • Grow_Policy [по умолчанию = по глубине ]

    • Управляет способом добавления новых узлов в дерево.

    • В настоящее время поддерживается, только если для tree_method установлено значение hist , приблизительно или gpu_hist .

    • Варианты: по глубине , направляющая потерь

  • max_leaves [по умолчанию=0]

  • max_bin , [по умолчанию=256]

    • Используется, только если для tree_method установлено значение hist , приблизительно или gpu_hist .

    • Максимальное количество дискретных интервалов для непрерывных объектов.

    • Увеличение этого числа повышает оптимальность разделения за счет увеличения времени вычислений.

  • предиктор , [по умолчанию = авто ]

  • num_parallel_tree , [по умолчанию=1]

  • monotone_constraints

  • взаимодействие_ограничения

    • Ограничения для взаимодействия, представляющие разрешенные взаимодействия. Ограничения должны
      указываться в виде списка вложений, т.е. [[0, 1], [2, 3, 4]] , где каждый внутренний
      list — это группа индексов функций, которым разрешено взаимодействовать друг с другом.
      Дополнительную информацию см. в разделе Ограничения взаимодействия элементов.

Дополнительные параметры для

hist , gpu_hist и приблизительно древовидный метод

  • single_precision_histogram , [по умолчанию = false ]

  • max_cat_to_onehot

    Новое в версии 1. 6.

    Примечание

    Поддержка этого параметра является экспериментальной.

    • Порог для принятия решения о том, следует ли XGBoost использовать разделение на основе горячего кодирования для
      Категориальные данные. Когда количество категорий меньше порога, то однократно
      выбрана кодировка, иначе категории будут разделены на дочерние узлы.
      Релевантно только для регрессии и бинарной классификации. Кроме того, точный метод дерева
      не поддерживается

Дополнительные параметры для Dart Booster (

booster=dart )

Примечание

Использование Predict() с усилителем DART

Если объект бустера относится к типу DART,
некоторые из деревьев будут оценены. Это приведет к неправильным результатам, если данных
а не обучающие данные. Чтобы получить правильные результаты на тестовых наборах, установите диапазон_итераций от до
ненулевое значение, например.

 preds = bst.predict (dtest, iteration_range = (0, num_round))
 
  • sample_type [по умолчанию = универсальный ]

  • normalize_type [по умолчанию = дерево ]

  • rate_drop [по умолчанию=0.0]

  • one_drop [по умолчанию=0]

  • skip_drop [по умолчанию=0.0]

Параметры линейного усилителя (

booster=gblinear )

  • лямбда [по умолчанию=0, псевдоним: reg_lambda ]

  • альфа [по умолчанию=0, псевдоним: reg_alpha ]

  • средство обновления [по умолчанию = дробовик ]

  • feature_selector [по умолчанию = циклический ]

    • Выбор функций и способ заказа 92) сложность. Он полностью детерминирован. Это позволяет ограничить выбор до top_k объектов на группу с наибольшей величиной одномерного изменения веса, установив параметр top_k . Это уменьшит сложность до O(num_feature*top_k) .

    • экономный : бережливый, почти жадный селектор функций. Перед циклическими обновлениями функции переупорядочиваются по убыванию величины их одномерных изменений веса. Эта операция является многопоточной и представляет собой аппроксимацию линейной сложности квадратичного жадного выбора. Это позволяет ограничить выбор до top_k объектов на группу с наибольшей величиной одномерного изменения веса, установив параметр top_k .

  • top_k [по умолчанию=0]

  • Параметры задачи обучения

    Укажите задачу обучения и соответствующую цель обучения. Варианты цели ниже:

    • цель [по умолчанию=reg:squarederror]

      • 92\). Все входные метки должны быть больше -1. Также см. метрику rmsle для возможной проблемы с этой целью.

      • reg: логистика : логистическая регрессия.

      • reg:pseudohubererror : регрессия с псевдохуберовской потерей, дважды дифференцируемая альтернатива абсолютной потере.

      • двоичный: логистика : логистическая регрессия для двоичной классификации, выходная вероятность

      • binary:logitraw : логистическая регрессия для бинарной классификации, выходная оценка до логистического преобразования

      • бинарный: шарнир : потеря шарнира для бинарной классификации. Это делает предсказания 0 или 1, а не производит вероятности.

      • count:poisson : регрессия Пуассона для данных подсчета, выходное среднее значение распределения Пуассона.

      • survival:cox : Регрессия Кокса для цензурированных справа данных времени выживания (отрицательные значения считаются цензурированными справа).
        Обратите внимание, что прогнозы возвращаются по шкале отношения рисков (т. е. как HR = exp(marginal_prediction) в функции пропорционального риска h(t) = h0(t) * HR ).

      • выживание:задняя часть : Ускоренная модель времени отказа для подвергнутых цензуре данных о времени выживания.
        Подробности см. в разделе «Анализ выживания с ускоренным временем отказа».

      • aft_loss_distribution : Функция плотности вероятности, используемая выживания:задняя цель и метрика ft-nloglik .

      • multi: softmax : установите XGBoost для выполнения мультиклассовой классификации с использованием цели softmax, вам также необходимо установить num_class (количество классов)

      • multi:softprob : то же, что и softmax, но выводит вектор ndata * nclass , который может быть преобразован в матрицу ndata * nclass . Результат содержит предсказанную вероятность каждой точки данных, принадлежащей каждому классу.

      • rank:pairwise : Используйте LambdaMART для попарного ранжирования, при котором попарные потери минимальны

      • rank:ndcg : Используйте LambdaMART для выполнения ранжирования по списку, где нормализованный дисконтированный кумулятивный выигрыш (NDCG) максимален

      • rank:map : Используйте LambdaMART для ранжирования по списку с максимальной средней точностью (MAP)

      • reg:gamma : гамма-регрессия с логарифмической связью. Выход представляет собой среднее значение гамма-распределения. Это может быть полезно, например, для моделирования серьезности страховых случаев или для любого результата, который может быть гамма-распределением.

      • reg:tweedie : Регрессия Tweedie с лог-связью. Это может быть полезно, например, для моделирования общих убытков в страховании или для любого результата, который может быть распределен Твиди.

    • base_score [по умолчанию=0,5]

      • Начальная оценка прогноза всех экземпляров, глобальное смещение

      • При достаточном количестве итераций изменение этого значения не будет иметь слишком большого эффекта.

    • eval_metric [по умолчанию в соответствии с целью]

      • Метрики оценки для данных проверки, метрика по умолчанию будет назначена в соответствии с целью (rmse для регрессии и logloss для классификации, средняя средняя точность для ранжирования) 92}\). Метрика по умолчанию для цели reg:squaredlogerror . Эта метрика уменьшает количество ошибок, вызванных выбросами в наборе данных. Но поскольку используется функция log , rmsle может выводить nan , когда значение прогноза меньше -1. Другие требования см. в разделе reg:squaredlogerror .

      • mae : средняя абсолютная ошибка

      • mape : средняя абсолютная ошибка в процентах

      • mphe : средняя ошибка псевдо-Хьюбера. Метрика по умолчанию для цели reg:pseudohubererror .

      • logloss : отрицательное логарифмическое правдоподобие

      • ошибка : Частота ошибок двоичной классификации. Он рассчитывается как #(неправильные случаи)/#(все случаи) . Для прогнозов оценка будет рассматривать экземпляры со значением прогноза больше 0,5 как положительные экземпляры, а остальные — как отрицательные экземпляры.

      • error@t : пороговое значение двоичной классификации, отличное от 0,5, может быть указано путем предоставления числового значения через «t».

      • ошибка : Частота ошибок мультиклассовой классификации. Он рассчитывается как #(неправильные случаи)/#(все случаи) .

      • mlogloss : Многоклассовый logloss.

      • auc : Область рабочей характеристики приемника под кривой.
        Доступно для задач классификации и обучения на ранг.

        • При использовании с бинарной классификацией цель должна быть двоичная:логистика или аналогичные функции, которые работают с вероятностью.

        • При использовании с многоклассовой классификацией цель должна быть multi:softprob вместо multi:softmax , так как последняя не выводит вероятность. Также AUC рассчитывается как 1-по сравнению с отдыхом с эталонным классом, взвешенным по распространенности класса.

        • При использовании с задачей LTR AUC вычисляется путем сравнения пар документов для подсчета правильно отсортированных пар. Это соответствует попарному обучению ранжированию. Реализация имеет некоторые проблемы со средней AUC вокруг групп и распределенных рабочих, которые не определены четко.

        • На одной машине расчет AUC точен. В распределенной среде AUC представляет собой средневзвешенное значение AUC обучающих строк на каждом узле, поэтому распределенный AUC является аппроксимацией, чувствительной к распределению данных между рабочими процессами. Используйте другую метрику в распределенных средах, если важны точность и воспроизводимость.

        • Если входной набор данных содержит только отрицательные или положительные выборки, на выходе будет NaN . Поведение определяется реализацией, например, scikit-learn вместо этого возвращает \(0,5\).

      • aucpr : Площадь под кривой PR.
        Доступно для задач классификации и обучения на ранг.

        После XGBoost 1.6 как требования, так и ограничения для использования aucpr в задаче классификации аналогичны auc . Для задачи ранжирования поддерживается только двоичная метка релевантности \(y \in [0, 1]\). Отличается от карты (средняя точность) , aucpr вычисляет интерполированную площадь под кривой точного отзыва, используя непрерывную интерполяцию.

      • ndcg : Нормализованная дисконтированная совокупная прибыль

      • карта : Средняя точность

      • ndcg@n , map@n : ‘n’ может быть назначен как целое число, чтобы отсечь верхние позиции в списках для оценки.

      • ndcg- , карта- , ndcg@n-, map@n-: В XGBoost NDCG и MAP будут оценивать список без положительных образцов как 1. Добавляя «-» в метрику оценки, XGBoost будет оценивать эти баллы. как 0, чтобы быть последовательным при некоторых условиях.

      • poisson-nloglik : отрицательное логарифмическое правдоподобие для регрессии Пуассона

      • gamma-nloglik : отрицательное логарифмическое правдоподобие для гамма-регрессии

      • cox-nloglik : отрицательное частичное логарифмическое правдоподобие для регрессии пропорциональных рисков Кокса

      • гамма-отклонение : остаточное отклонение для гамма-регрессии

      • tweedie-nloglik : отрицательное логарифмическое правдоподобие для регрессии Твиди (при указанном значении параметра tweedie_variance_power )

      • ft-nloglik : Отрицательная логарифмическая вероятность модели ускоренного времени отказа.
        Подробности см. в разделе «Анализ выживания с ускоренным временем отказа».

      • interval-regression-accuracy : Доля точек данных, предсказанные метки которых попадают в цензурированные интервалом метки.
        Применимо только к данным с интервальной цензурой. Подробности см. в разделе «Анализ выживания с ускоренным временем отказа».

  • семя [по умолчанию=0]

  • seed_per_iteration [по умолчанию = false ]

  • Параметры регрессии Твиди (

    цель=reg:tweedie )

    Параметр для использования Pseudo-Huber (

    reg:pseudohubererror )

    Параметры командной строки

    Следующие параметры используются только в консольной версии XGBoost

    • num_round

    • данные

    • тест:данные

    • период_сохранения [по умолчанию=0]

    • задача [по умолчанию = поезд ] варианты: поезд , пред , eval , дамп

      • поезд : обучение с использованием данных

      • пред : прогнозирование для теста: данные

      • eval : для оценки статистики, указанной параметром eval[имя]=имя файла

      • дамп : для вывода изученной модели в текстовый формат

    • model_in [по умолчанию=NULL]

      • Путь к входной модели, нужен для задач test , eval , dump .