При внедрении машинного обучения в технических системах возникает явление, которое называется "дрейф данных" (data drift). Это когда обученная модель перестаёт давать достоверные прогнозы из-за каких-то изменений в системе. Например, когда на предприятии провели техническое обслуживание оборудования или заменили какие-то его компоненты, старая модель может стать неактуальной. При этом для повышения адекватности прогнозов часто не стоит исправлять старую модель. Нужно выкинуть ее и обучить новую на новой выборке. Ведь какой смысл ее переобучать, если исходные данные уже неактуальны.
Подобный подход действует для собственного мышления. Например, несколько лет назад я решил научиться печатать слепым десятипальцевым методом. Тогда я уже неплохо печатал четырьмя пальцами. И при переучивании был период, когда старый метод выглядел более простым, логичным и естественным. Мозг тянул меня вернуться к нему. По мере того, как я продолжал переучиваться, контроль над первым методом постепенно терялся, а над вторым приобретался, пока второй не победил.
Ту же инерцию мы испытываем, когда нужно менять подход к мышлению о каком-то глубоком вопросе. Просто начать думать по-новому бывает недостаточно. Часто нужно также сознательно отказываться от старого подхода, говорить ему "нет". И старый подход будет отстаивать свои права. В определенный момент может даже начать казаться, что там так много всего важного - а давай попробуем вернуться к нему. Но я заметил, что часто эти мысли - иллюзия, рационализация реакций, которые автоматизировал собственный мозг.
В общем, и при внедрении алгоритмов машинного обучения в технических системах, и при изменении собственного мышления/поведения наступает момент, когда нужно перестать адаптировать свою старую модель к новым условиям, а просто выкинуть ее и заменить на новую.
P.S. Также публикую посты в Telegram.
https://t.me/vinyavskii_stories.
Если хотите читать нерегулярные заметки по теме - подключайтесь 😉