В середине 90‑х я получил первый домашний компьютер — IBM‑совместимую машинку на процессоре Intel 286. Установка Windows требовала кучу дискет, а жёсткий диск вмещал «весь» 20‑30 МБ. Информация тогда хранилась в бумажных книгах и в полках библиотек.
Сейчас, спустя почти три десятилетия, обучение программированию выглядит совершенно иначе. Ниже я расскажу, как менялись возможности обучения, и почему сейчас Large Language Models (LLM) могут стать вашим личным наставником.
Как всё начиналось – 1995 год, изучал Pascal, пытался поступить на факультет программирования, но попал в техническую физику.
Где искал информацию – книги в библиотеке, «знакомые», которые часто отмахивались от вопросов.
Проблемы – долгий поиск, отсутствие обратной связи, необходимость писать всё с нуля.
Вернулся к программированию, когда знакомый дал мне микроконтроллеры.
За 2‑месяца изучил архитектуру 8051, PIC, AVR, купил несколько справочников и через 4 месяца собрал первый работающий проект (управление светодиодом).
Интернет тогда был слабым – почти никаких готовых примеров, всё писалось вручную.
Появились форумы (Stack Overflow, Хабр), но задавать вопросы часто означало получить грубый ответ («ты же ламер»).
Преподаватели в вузе редко учили писать «чистый» код – в основном теория.
Пришлось учиться самостоятельно, ошибаться и исправлять свои ошибки.
С появлением LLM процесс обучения резко упростился, а главное я пришел к выводу что локальные модели зачастую работают лучше чем облачные.
Плюсы локальных LLM
Мгновенный ответ на любой вопрос, ну конечно в зависимости от вашего оборудования и выбранной модели.
Тонкая настройка – можно попросить объяснить каждую строку кода.
Нет риска быть оскорблённым – модель отвечает вежливо и терпеливо.
Доступ 24 / 7, без необходимости искать книги или форумы или способ оплаты облачных моделей.
Генерация кода – Вы получаете полностью работающий скрипт.
Разбор кода – ваш вопрос моржет быть таким - прошу объяснить каждую строку, и получаете комментарии.
Отладка – копируете сообщение об ошибке, модель подсказывает, как её исправить.
Изучение новых технологий – спрашиваете про Rust, WebAssembly, микросервисы и получаю короткие обзоры.
Ограничения
Ответы модели нужно проверять – иногда она генерирует «правдоподобный», но неверный код.
Лучший способ учиться – сочетать подсказки LLM с реальной практикой.
Ну и конечно самым большим ограничением является то что запустить крупную модель локально стоит в современных условиях довольно дорого. Но судя по рекламным ссылкам в Яндекс, в которых предлагаются просто игровые компьютеры по цене выше 3млн. рублей. Должны быть люди которые имеют возможность и желание создать AI сервер намного мощнее таких геймерских ПК, а по цене сильно дешевле.
От этого конечно никуда ни скрыться, верить в современном мире никому нельзя, иногда даже себе не нужно верить.
Тридцать лет назад путь к программированию пролегал через библиотеки, кучи дискет и иногда враждебные форумы. Сегодня, благодаря Large Language Models, каждый может получить мгновенную, вежливую и подробную помощь – от генерации кода до объяснения его работы.
Это не отменяет необходимости практики, но делает обучение гораздо доступнее. Если вы только начинаете, задайте LLM простой вопрос о синтаксисе; если уже работаете над сложным проектом – попросите помочь с оптимизацией. В любом случае у вас теперь есть персональный наставник, который никогда не назовёт вас «ламером», а лишь поможет стать лучше.
PS.
Собрать компьютер для исследования и запуска нейросетей можно за 1.5 млн рублей, конечно пока работает коридор с нашими китайскими друзьями. Могу в этом помочь пока уверен в том что канал работает. Вперед деньги не возьму.
А еще существует в на разных ресурсах люди которые пытаются запускать сильно кастрированные модели, менее 32 миллиардов параметров, даже на серверном оборудовании и получают сильно отрицательный результат. После чего начинают как сейчас модно говорить - хейтить весь AI.
Ну и меня за эту крамолу в этой статье возможно начнуть хейтерить.
Автор: [DemonRYB]
Источник


