Содержание
ПОРЯДОК ЗАПОЛНЕНИЯ ФОРМЫ «СВЕДЕНИЯ О ЗАСТРАХОВАННЫХ ЛИЦАХ (СЗВ-М)» \ КонсультантПлюс
Взамен формы СЗВ-М, утвержденной данным документом, Приказом ФНС России от 29.09.2022 N ЕД-7-11/878@ утверждена форма персонифицированных сведений о физических лицах, которая применяется начиная с представления сведений за январь 2023 года (Информация ФНС России).
Приложение 2
Утвержден
постановлением Правления ПФР
от 15 апреля 2021 г. N 103п
1. Форма «Сведения о застрахованных лицах (СЗВ-М)» (далее — форма СЗВ-М) может быть представлена в форме электронного документа или на бумажном носителе.
2. В случае представления формы СЗВ-М на бумажном носителе страхователь заполняет ее чернилами, шариковой ручкой (могут использоваться любые цвета, кроме красного и зеленого) печатными буквами или при помощи средств вычислительной техники без помарок, исправлений и без каких-либо сокращений.
3. Документ, представляемый на бумажном носителе, заверяется подписью руководителя или доверенного лица и печатью организации (при наличии). Страхователь, не являющийся юридическим лицом, заверяет входящие документы личной подписью. Позиции «Наименование должности руководителя», «Расшифровка подписи» (фамилия, имя, отчество (при наличии) указывается полностью) обязательны к заполнению.
4. Форма СЗВ-М в форме электронного документа представляется страхователем по форматам, утвержденным постановлением Правления Пенсионного фонда Российской Федерации от 7 декабря 2016 г. N 1077п «Об утверждении формата сведений для ведения индивидуального (персонифицированного) учета (форма СЗВ-М)» (зарегистрировано Министерством юстиции Российской Федерации 26 декабря 2016 г., регистрационный N 44964), и подписывается усиленной квалифицированной электронной подписью в соответствии с Федеральным законом от 6 апреля 2011 г. N 63-ФЗ «Об электронной подписи» (Собрание законодательства Российской Федерации, 2011, N 15, ст. 2036; 2021, N 9, ст. 1467).
5. В разделе 1 «Реквизиты страхователя» все поля заполняются обязательно.
6. В поле «Регистрационный номер в ПФР» указывается регистрационный номер страхователя, присвоенный ему при регистрации в качестве страхователя по обязательному пенсионному страхованию.
7. В поле «Полное или сокращенное наименование» указывается полное или сокращенное наименование организации в соответствии с учредительными документами (допускается наименование в латинской транскрипции) либо наименование отделения иностранной организации, осуществляющей деятельность на территории Российской Федерации, обособленного подразделения.
8. В поле «ИНН» указывается идентификационный номер налогоплательщика (далее — ИНН).
Для юридического лица, образованного в соответствии с законодательством Российской Федерации, ИНН указывается в соответствии со свидетельством о постановке на учет в налоговом органе по месту нахождения на территории Российской Федерации.
Для физического лица ИНН указывается в соответствии со свидетельством о постановке на учет в налоговом органе физического лица по месту жительства на территории Российской Федерации.
9. В поле «КПП» указывается код причины постановки на учет по месту нахождения организации (далее — КПП) в соответствии со свидетельством о постановке на учет в налоговом органе юридического лица, образованного в соответствии с законодательством Российской Федерации, по месту нахождения на территории Российской Федерации.
КПП по месту нахождения обособленного подразделения указывается в соответствии с уведомлением о постановке на учет в налоговом органе юридического лица, образованного в соответствии с законодательством Российской Федерации, по месту нахождения обособленного подразделения на территории Российской Федерации. КПП должен состоять из 9 цифр либо отсутствовать.
10. Раздел 2 «Отчетный период календарного года» заполняется обязательно.
11. Номер месяца календарного года указывается в формате ММ, а год, за который представляется форма СЗВ-М, — в формате ГГГГ.
12. Раздел 3 «Тип формы (код)» заполняется обязательно.
13. В поле «Тип сведений формы (код)» указывается один из типов представляемой формы: исходная, дополняющая или отменяющая.
Форма СЗВ-М с типом «Исходная» представляется страхователем на застрахованных лиц впервые за данный отчетный период.
Форма СЗВ-М с типом «Дополняющая» представляется страхователем с целью дополнения ранее принятых ПФР сведений о застрахованных лицах за данный отчетный период.
Форма СЗВ-М с типом «Отменяющая» представляется страхователем с целью отмены ранее неверно поданных сведений о застрахованных лицах за указанный отчетный период.
14. В разделе 4 «Сведения о застрахованных лицах» указываются сведения о застрахованных лицах, на которых распространяется обязательное пенсионное страхование в соответствии со статьей 7 Федерального закона от 15 декабря 2001 г. N 167-ФЗ «Об обязательном пенсионном страховании в Российской Федерации» (Собрание законодательства Российской Федерации, 2001, N 51, ст. 4832; 2021, N 1, ст. 41).
15. Графа «N п/п» заполняется сквозной нумерацией. Номер присваивается записи по конкретному застрахованному лицу. Номера должны указываться в порядке возрастания без пропусков и повторений.
16. В графе «Фамилия, имя, отчество (при наличии) застрахованного лица» сведения заполняются на русском языке в именительном падеже полностью, без сокращений или замены имени и отчества инициалами. Заполняется обязательно.
17. В графе «Страховой номер индивидуального лицевого счета» указывается страховой номер индивидуального лицевого счета зарегистрированного лица (далее — СНИЛС), в отношении которого представляется форма СЗВ-М. Заполняется обязательно.
СНИЛС должен состоять из 11 цифр по формату XXX-XXX-XXX-CC или XXX-XXX-XXX CC.
18. Сведения, указанные в пунктах 16, 17 настоящего Порядка, должны соответствовать сведениям, указанным в документе, подтверждающем регистрацию в системе индивидуального (персонифицированного) учета Пенсионного фонда Российской Федерации <1>.
———————————
<1> Постановление Правления ПФР от 13 июня 2019 г. N 335п «Об утверждении формы документа, подтверждающего регистрацию в системе индивидуального (персонифицированного) учета, и порядка его оформления в форме электронного документа» (зарегистрировано Министерством юстиции Российской Федерации 18 сентября 2019 г., регистрационный N 55951).
19. Графа «ИНН» заполняется при наличии у страхователя данных об ИНН физического лица.
СЗВ-М — расшифровка аббревиатуры: blogkadrovika — LiveJournal
?
Category:
- Общество
- Cancel
СЗВ-М — расшифровка аббревиатуры не так проста, как кажется. Что обозначает название персонифицированного отчета «СЗВ-М»? Разберемся, какой смысл в обозначение вкладывал Пенсионный фонд.
Что такое аббревиатура
Этот термин произошел от латинского «brevis» — «краткий» и обозначает слово, образованное сокращением словосочетания до начальных букв или звуков.
Если набор букв прямо не идентифицирует исходное словосочетание, речь идет об условном обозначении — коде, для которого допускается применение цифр. Такая последовательность знаков фиксирует особенности объекта, к которому относится, и используется, например, при маркировке и штрих-кодировании.
СЗВ-М может оказаться как аббревиатурой, так и условным обозначением.
СЗВ-М как аббревиатура
На просторах сети Интернет пользователи активно пытаются расшифровать СЗВ-М по буквам. Фантазия людей безгранична, но самым логичным кажется вариант «Сведения о Застрахованных Входящие (в ПФ РФ)», представляемые ежеМесячно.
Действительно, форма СЗВ-М и называется «Сведения о застрахованных лицах». Но рассмотрим и другую точку зрения.
СЗВ-М как условное обозначение
Бланк данного отчета введен [cplink params=»req=doc&base=LAW&n=194369&dst=10
В п. 1 инструкции приводится перечень отчетов и их условных обозначений, например:
Как видим, наименования форм ПФР составлены не по принципу аббревиации. Аналогичный вывод стоит применить и к отчету СЗВ-М.
О сроках сдачи СЗВ-М в 2020 году читайте здесь.
Подводим итоги
- Формы персонифицированного учета имеют условные обозначения.
- Сочетание букв «СЗВ-М» аббревиатурой не является и расшифровке не поддается.
Tags: отчет, отчётность, сзвм
Subscribe
Как отказаться от льготы по НДС до 1 октября 2022 года
[su_note note_color=» #f3f3f3″]Компании, планирующие отказаться от льгот по НДС до конца текущего года, должны представить в ИФНС соответствующее…
Сроки уплаты налогов и взносов за 3 квартал 2022
[su_note note_color=» #f3f3f3″]В нашей консультации мы приведем сроки уплаты основных налогов и взносов за 3 квартал 2022 г. для организаций и…
Будет ли индексироваться пенсия после увольнения при повторном трудоустройстве
[su_note note_color=» #f3f3f3″]Все знают, что работающим пенсионерам не повышается пенсия на индекс потребительских цен до тех пор, пока они не…
Photo
Hint http://pics. livejournal.com/igrick/pic/000r1edq
машин опорных векторов | На пути к науке о данных
Фото Хани Янибель Минайя Круз на Unsplash
SVM — это очень простой, но мощный алгоритм машинного обучения с учителем, который можно использовать как для классификации, так и для регрессии, хотя он широко используется для классификации. Они очень хорошо работают с наборами данных малого и среднего размера и чрезвычайно просты в настройке.
В этом сообщении блога мы построим наше интуитивное представление о машинах опорных векторов и рассмотрим некоторые математические аспекты. Сначала мы поймем, что такое классификаторы с большой маржей, и поймем функцию потерь и функцию стоимости этого алгоритма. Затем мы увидим, как регуляризация работает для SVM и что управляет компромиссом смещения/дисперсии. Наконец, мы узнаем о самой крутой функции SVM, а именно о трюке с ядром.
Вы должны иметь некоторые предварительные знания о том, как работают линейная регрессия и логистическая регрессия, чтобы легко понять концепции. Я бы посоветовал вам делать заметки во время чтения, чтобы извлечь максимальную пользу из этой статьи, это будет долгое и интересное путешествие. Итак, без лишних слов, давайте углубимся.
Давайте сразу начнем с примера, скажем, у нас есть некоторые данные, которые содержат 2 класса, и для простоты предположим, что они имеют только 2 функции, мы можем разделить эти 2 класса разными способами. Для этого мы можем использовать как линейные, так и нелинейные границы решений.
SVM пытается разделить эти 2 класса как можно шире и , поэтому в нашем примере в качестве границы решения будет выбрана желтая линия.
Рисунок 1
Если желтая линия является нашей границей решения, то зеленая и красная точки класса, обведенные кружками (рис. 2), являются ближайшими точками к нашей границе решения. Расстояние между этими точками называется запасом , и SVM пытается максимизировать этот запас. По этой причине машины опорных векторов также называют 9. 0011 классификаторы с большим запасом, это позволяет SVM иметь лучшую точность обобщения.
Рисунок 2
В многомерном пространстве эти точки представляют собой не что иное, как n-мерные векторы, где n — количество признаков в данных. Выборка точек, ближайших к границе решения (здесь обведены красной и зеленой точками), называется опорными векторами . Я буду называть зеленые опорные векторы положительными опорными векторами, а красные — отрицательными опорными векторами. Граница решения полностью зависит от этих точек, поскольку именно они определяют длину нашего запаса. Если мы изменим опорные векторы, наша граница решения изменится, а это также означает, что точки, отличные от опорных векторов, не имеют большого значения при формировании нашей границы решения.
Чтобы найти границу решения, мы должны:
- определить нашу гипотезу
- определить функцию потерь
- с помощью функции потерь рассчитать функцию стоимости для всех точек обучения
- использовать алгоритм оптимизации, такой как градиентный спуск или последовательная минимальная оптимизация чтобы минимизировать стоимость и получить наши идеальные параметры
Гипотеза для SVM довольно проста, для весов w
Рисунок 3
точка данных и граница решения, поэтому всякий раз, когда я произношу слово «гипотеза», просто думайте о нем не что иное, как это расстояние.
Прежде чем мы увидим, что именно представляет собой функция потерь для SVM, давайте посмотрим на стоимость одного обучающего примера. а «y hat» — это не что иное, как наша гипотеза, определенная на рисунке 3. Я знаю, что выдал много уравнений, не беспокойтесь, давайте начнем разбираться в них.
Рисунок 5
Так выглядит стоимость, когда фактические классы равны 1 и 0 соответственно. Если вы не понимаете, откуда взялись 1 и -1, не беспокойтесь об этом, вы поймете это, когда мы увидим формулу для функции потерь.
Давайте сначала рассмотрим первый случай, когда y = 1. Мы знаем, что наш прогноз будет равен 1, когда гипотеза неотрицательна. Таким образом, для этих значений нашей гипотезы наша стоимость должна быть минимальной, но здесь это не так. Почему наша стоимость достигает своего минимума, то есть значения 0, только когда гипотеза больше или равна 1 вместо 0? Ответ можно найти в идее классификатора большой маржи.
Рисунок 6
Наша гипотеза будет равна 1 для всех точек класса 1, которые лежат точно на границе, или, другими словами, гипотеза равна 1 для наших положительных опорных векторов. Таким образом, для всех точек, которые находятся дальше от границы решения (даже дальше, чем опорные векторы), гипотеза будет иметь значение больше 1, и, следовательно, стоимость будет минимизирована. Если у нас есть точки, которые находятся между границей, то есть они даже ближе к границе решения, чем опорные векторы, для них гипотеза будет меньше 1. Чем ближе эти точки подходят к границе решения, тем выше наша стоимость. получает. Однако эти точки по-прежнему классифицируются как 1, пока гипотеза неотрицательна.
Теперь давайте посмотрим на второй случай, когда y = 0
Рисунок 7
Аналогично первому случаю, здесь значение гипотезы будет равно -1 для всех точек класса 0, лежащих точно на предельном расстоянии или, другими словами, для всех отрицательных векторов поддержки гипотеза будет равна -1. Когда гипотеза начинает увеличиваться в отрицательном направлении или точки данных начинают отдаляться еще дальше, чем отрицательные векторы поддержки от границы решения (в нашем случае, когда красные точки начинают удаляться от границы решения), стоимость достигает 0, т. е. минимальное значение. Здесь также, когда точки лежат между границей или когда они начинают приближаться к границе решения, стоимость начинает увеличиваться, но точки классифицируются как 0, пока гипотеза отрицательна.
Подводя итог, можно сказать, что функция стоимости SVM наказывает не только за неправильную классификацию, но и когда точки начинают приближаться к границе решения, поэтому наш алгоритм оптимизации должен найти такие веса, чтобы между классами сохранялось расстояние (или запас). .
Теперь, когда мы поняли интуицию, лежащую в основе SVM, увидев стоимость одного обучающего примера, давайте просто посмотрим, какова формула для потери шарнира.
Рисунок 8
Теперь, если вы снова посмотрите на графики, вы поймете, откуда взялись 1 и -1. Потеря в основном просто говорит, что
- для y = 1, если значение гипотезы больше или равно 1, потеря равна 0. Если гипотеза находится между 0 и 1 или отрицательна, потеря имеет положительное значение и увеличивается линейно.
- для y = 0, если значение гипотезы больше или равно -1, потеря равна 0. Если гипотеза находится между -1 и 0 или положительна, потеря положительна и увеличивается линейно.
Мы видели, как выглядит потеря шарнира, а также видели стоимость одного обучающего примера, все, что нам нужно сделать сейчас, это объединить эти 2 уравнения и сформировать функцию стоимости для «m» обучающих примеров. Вот что мы получаем:
Рисунок 9
Секундочку… откуда взялись все эти лишние буквы??
Фото Адама из futuristicon
В приведенном выше уравнении «C» называется параметром регуляризации. Это гиперпараметр, который контролирует степень регуляризации. Однако есть небольшая разница в регуляризации в SVM по сравнению с регуляризацией, которую можно увидеть в логистической регрессии или линейной регрессии. Возьмем пример логистической регрессии, функция стоимости имеет следующий вид:
Рисунок 10
Здесь B — член регуляризации (L2 или L1), а A — член затрат или, как некоторые его называют, термин соответствия. В логистической регрессии, изменяя значение «лямбда», которое является нашим параметром регуляризации, мы в основном сообщаем алгоритму оптимизации количество внимания , которое ему нужно, чтобы дать член регуляризации, и именно так мы контролируем компромисс смещения/дисперсии. Но стоимость SVM выглядит примерно так:
Рисунок 11
Теперь и здесь A — это термин соответствия, а B — термин регуляризации, однако параметр регуляризации связан с термином соответствия. Итак, теперь, изменяя значение нашего параметра регуляризации, мы сообщаем алгоритму оптимизации, насколько внимание уделять термину соответствия или сколько внимания НЕ уделять термину регуляризации. Интуитивно C и лямбда обратно пропорциональны.
Скажем, например, у нас очень большое значение C. Даже при наличии одного выброса большое значение C будет пытаться минимизировать неправильно классифицированные точки, и мы получим фиолетовую границу решения вместо зеленой, которую мы получили бы, если бы значение C было разумным.
Рисунок 12
Если C очень мало, то разница будет больше, но вероятность неправильной классификации возрастет.
Рисунок 13
Итак, по существу, по мере того, как C увеличивается , тенденция нашей модели к переоснащению данных увеличивается, а по мере того, как C уменьшается , мы более склонны к несоответствию данным.
Хитрость ядра делает машины опорных векторов такими мощными. Это позволяет алгоритму изучать более сложные границы решений, а не только линейные. Так что же такое ядра? Давайте сначала рассмотрим гипотезу и функцию стоимости использования SVM с ядрами.
Рисунок 14
Как видите, в уравнениях не так много изменений. Вместо X в гипотезе есть буква «f», которая представляет собой матрицу новых признаков . Мы получаем значения этих функций из функции, и эту функцию мы называем ядром . Теперь в нашей стоимости «шляпа» представляет эту вновь сформулированную гипотезу.
Теперь давайте разберемся, как рассчитываются эти функции. Скажем, у нас есть набор данных с двумя функциями, и мы визуализируем один обучающий пример ниже, здесь l1, l2 и l3 — некоторые ориентиры, которые мы выбираем, пока не беспокойтесь об их значениях.
Рисунок 15
Наши ядра являются функцией X с этими ориентирами. Используя эти функции, мы вычисляем новые функции для нашей модели. Таким образом, для каждого ориентира у нас будет одна функция, как показано ниже:
Рисунок 16
Эти функции или ядра могут быть разных типов, таких как ядро Гаусса, полиномиальное ядро или, если мы просто используем наши общие функции без использования ядер, это иногда называют линейным ядром. . Ядра Гаусса используются наиболее широко, поэтому мы обсудим это в этом посте.
Вот как будут выглядеть наши функции, если мы будем использовать ядра Гаусса:
Рисунок 17
Возвращаясь к нашему примеру, прежде чем давайте поймем, как использование ядер Гаусса влияет на нашу границу решения.
Если предположить, что X почти равно l1 (расстояние между ними почти равно 0), то ядро Гаусса выдает значение, близкое к 1.
Рисунок 18 l1, то ядро выдаст значение, близкое к 0.
Чем больше расстояние между точкой и ориентиром, тем ниже значение признака и чем ближе расстояние между точками и ориентиром, тем выше значение признака. Теперь на примере посмотрим, как будет сформирована граница решения.
Рисунок 19
Здесь X1 очень близко к l1, оно также близко к l2 и относительно далеко от l3, поэтому мы имеем более высокие значения для f1 и f2, но f3 имеет очень низкое значение. (Я только что принял эти значения для объяснения). Подключив его к нашей гипотезе, мы получим положительное значение и предскажем, что X1 равно 1.
X2, с другой стороны, ближе к l3 и далеко от l1 и l2. Таким образом, значения f1 и f2 будут очень маленькими, а f3 будет больше. Подстановка значений дает нам отрицательную гипотезу, и, следовательно, мы предсказываем X2 как 0,9. 0003
Из этого мы можем видеть, что точки, лежащие на ближе к l1 и l2, прогнозируются как 1, а точки ближе к l3 прогнозируются как 0, так что это приблизительная граница решения, которую мы получаем.
Рисунок 20
Это дало нам интуитивное понимание того, как использование ядер может позволить SVM изучать более сложные функции, чем просто линейные, но как выбираются эти ориентиры?
Ответ на этот вопрос очень прост, каждый ориентир соответствует каждой из наших точек данных. Это означает, что для набора данных с «m» обучающими примерами у нас будет «m» ориентиров, и, следовательно, мы будем вычислять «m» новых функций.
Рисунок 21
Таким образом, для набора данных с «m» примерами мы вычислим «m» признаков. Теперь таким образом мы вычисляем функции для всех наших точек данных. Здесь следует отметить, что для i-й точки данных значение i-го признака всегда будет равно 1 (с использованием ядра Гаусса)
Мы уже обсуждали, как влияет на границу решения изменение C. Если C велико, тогда высокая дисперсия и низкая дисперсия, а если C мало, то имеется высокая дисперсия и низкая дисперсия.
Давайте исследуем влияние σ на наше смещение и дисперсию. Наиболее широко используются ядра Гаусса, поэтому полезно знать, как σ влияет на нашу решающую функцию. Для простоты предположим, что у нас есть набор данных только с 1 функцией 9.0003 Рисунок 22
Здесь l(i) — i-й ориентир, мы можем видеть, что если σ велико (зеленая линия), то ядро Гаусса очень плавно меняется от одного обучающего примера к другому, независимо от значения нашего обучающего примера или наш ориентир: если σ очень велико, то изменение будет минимальным, и, следовательно, наша модель не соответствует данным. У нас будет высокий уклон и низкая дисперсия.
Теперь для небольшого значения σ (красная линия) изменение ядра Гаусса будет резким от одного обучающего примера к другому, и, следовательно, это даст нам переобученную модель. У нас будет высокая дисперсия и низкая предвзятость. Таким образом, при увеличении σ смещение увеличивается, а при уменьшении σ увеличивается дисперсия.
Для оптимизации формулировки стоимости SVM мы используем SMO (последовательная минимальная оптимизация). Нет необходимости понимать, как оптимизирована функция стоимости SVM, чтобы иметь возможность реализовать SVM, большинство доступных программных пакетов могут сделать это за нас. Однако, если вас интересует математика, стоящая за этим, вы можете проверить ссылки
На этом мы можем завершить обсуждение машин опорных векторов, поздравляем, если вы застряли до конца, теперь вы должны иметь интуитивное понимание работы SVM. алгоритм.
Надеюсь, вы нашли этот пост полезным и легким для понимания, пожалуйста, оставляйте ценные отзывы в разделе комментариев 🙂
CS229 Конспект лекций Эндрю Нг в фМРТ
из nilearn.decoding import FREMClassifier frem = FREMClassifier (оценка = 'svc', cv = 5, маска = имя_маски_файла, оценка = 'f1') frem.fit(func_file, y) plotting. view_img( frem.coef_img_['лицо'], bg_img=haxby_dataset.anat[0], title="Веса SVM для лица", dim=-1, resampling_interpolation='ближайший' )
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base. py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base. py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base. py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base. py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base. py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base. py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base. py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base. py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base. py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base. py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base. py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base. py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base. py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base. py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/nilearn/regions/rena_clustering.py:205: RuntimeWarning: деление на ноль встречается в true_divide inv_max = dia_matrix((1. / max_connectivity, 0),
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.py:1206: ConvergenceWarning: Liblinear не удалось сходиться, увеличьте количество итераций. предупреждения.предупреждать(
/opt/hostedtoolcache/Python/3.8.15/x64/lib/python3.8/site-packages/sklearn/svm/_base.