
Колишній директор зі штучного інтелекту в Tesla, Андрій Карпати, опублікував пост, де пояснив, чому великі мовні моделі (LLM) варто сприймати не як «недосконалих людей», а як принципово інший вид інтелекту.
Карпати пропонує еволюційну метафору. Розум людини тисячі років шліфувала боротьба за виживання, тоді як LLM «вирощуються» в іншому середовищі - на наборах даних, функціях втрат, користувальницьких вподобаннях та метриках якості.
Помилка для тварини - ризик загинути й не дати потомство. Помилка для моделі - лише шанс потрапити в наступну версію з мінімальним коригуванням. Звідси - парадокс: ШІ може писати складний код і розмірковувати про науку, але зазнавати невдачі в завданнях на простому рівні, оскільки ці завдання не є критичними для його «комерційної еволюції».
Карпати виділяє три ключові відмінності:
• Носій: нейрони проти трансформерів на GPU.
• Навчання: генетика, тіло та досвід проти величезних масивів текстів і тонкого налаштування.
• Режим існування: у людини - безперервне життя; у моделі - «сон» між запитами та відсутність пам'яті поза навчанням.
Головне - різні цілі оптимізації. Людський розум викував природний відбір, а мову моделей формують розмітки, метрики та користувальницькі оцінки. Тому штучний інтелект виходить асиметричний, подекуди надлюдський, подекуди дуже крихкий.
Висновок простий: очікувати від LLM людської інтуїції, інстинктів або здорового глузду - помилка. Щоб розуміти, як мовні моделі працюють і куди рухаються, потрібно сприймати їх як інший тип інтелекту, систем без болю та страху смерті, але з тотальною залежністю від даних і метрик.
Підписуйтесь на Telegram-канал
«ОСВІТА | МОТИВАЦІЯ | ТЕХНОЛОГІЇ»
https://t.me/newedulife,
щоб першими отримувати цікаву та корисну інформацію.