Поєднання ШІ та Блокчейн: панорама від інфраструктури до застосувань
Швидкий розвиток галузі штучного інтелекту в останній час деякі люди вважають початком четвертої промислової революції. Поява великих мовних моделей значно підвищила ефективність у різних сферах, за оцінками компанії Boston Consulting Group, GPT забезпечив близько 20% підвищення загальної продуктивності праці в США. Водночас, здатність великих моделей до узагальнення вважається новою парадигмою програмного дизайну. У минулому програмний дизайн полягав у точному коді, тоді як тепер програмний дизайн більше зосереджується на інтеграції потужних моделей з високими можливостями узагальнення у програмне забезпечення, що дозволяє йому демонструвати кращі результати та підтримувати більш широкий спектр вхідних та вихідних модальностей. Технології глибокого навчання дійсно принесли новий етап процвітання для галузі ШІ, і цей підйом поступово поширюється на галузь криптовалют.
Індустрія штучного інтелекту почала розвиватися з 50-х років XX століття. Для досягнення бачення штучного інтелекту академічні кола та промисловість в різні епохи та з різних дисциплін розвинули безліч шкіл для реалізації штучного інтелекту.
Сучасні технології штучного інтелекту в основному використовують термін "машинне навчання", основна ідея якого полягає в тому, щоб дозволити машинам на основі даних повторно ітеративно покращувати ефективність системи в завданнях. Основні етапи включають введення даних в алгоритм, навчання моделі на цих даних, тестування та впровадження моделі, а потім використання моделі для виконання автоматизованих прогнозних завдань.
Наразі машинне навчання має три основні напрямки: коннекціонізм, символізм і поведінковий підхід, які імітують нервову систему, мислення та поведінку людини відповідно. Серед них коннекціонізм, представлене нейронними мережами, наразі домінує ( і також відоме як глибоке навчання ). Ця архітектура має один вхідний шар, один вихідний шар і кілька прихованих шарів. Коли кількість шарів і нейронів ( достатньо велика, можна моделювати складні загальні завдання. Постійно вводячи дані, коригуючи параметри нейронів, в результаті великої кількості тренувань на даних нейронна мережа може досягти оптимального стану. Це також є походженням терміна "глибокий" - достатня кількість шарів і нейронів.
! [Newcomer Science Popular丨AI x Crypto: від нуля до піку])https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp(
Глибоке навчання на основі нейронних мереж також пройшло через кілька технічних ітерацій та еволюцій, починаючи з найперших нейронних мереж, до мереж прямого зв'язку, RNN, CNN, GAN, і, нарешті, розвиваючись до сучасних великих моделей, таких як GPT, що використовують технологію Transformer. Технологія Transformer є напрямком еволюції нейронних мереж, вона додає перетворювач ) Transformer (, який використовується для кодування даних з різних модальностей ), таких як аудіо, відео, зображення тощо ( в відповідні числові представлення. Потім ці закодовані дані вводяться в нейронну мережу, що дозволяє нейронній мережі підлаштовуватися під будь-який тип даних, таким чином реалізуючи можливості обробки мультимодальних даних.
![Новачок Просвіта丨AI x Crypto: від нуля до вершини])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(
Розвиток ШІ пройшов три технологічні хвилі. Перша хвиля відбулася в 60-х роках XX століття, це було через десять років після появи технології ШІ. Ця хвиля була викликана розвитком символістських технологій, які вирішували загальні проблеми обробки природної мови та діалогу між людиною і машиною. У той же час, були створені експертні системи, зокрема експертна система DENRAL, яка була розроблена за підтримки Національного управління з аеронавтики і дослідження космічного простору США в Стенфордському університеті, ця система має потужні знання з хімії і здатна генерувати відповіді, схожі на відповіді хімічного експерта, через висунення запитань.
Друга хвиля технологій штучного інтелекту відбулася в 1997 році, коли "Гаррі" від IBM переміг чемпіона світу з шахів Каспарова з рахунком 3.5:2.5. Ця перемога вважається віхою в розвитку штучного інтелекту.
Третя хвиля технологій штучного інтелекту почалася в 2006 році. Три велетні глибокого навчання Ян Лекун, Джеффрі Хінтон і Йошуа Бенджіо запропонували концепцію глибокого навчання, яка є алгоритмом, що використовує штучні нейронні мережі як архітектуру для навчання представлення даних. Після цього алгоритми глибокого навчання постійно еволюціонували, від RNN, GAN до Transformer і Stable Diffusion, ці алгоритми разом сформували третю технологічну хвилю, що також знаменує розквіт коннекціонізму.
! [Newcomer Science丨AI x Crypto: від нуля до піку])https://img-cdn.gateio.im/webp-social/moments-609c5dd6ee0abcec6bf9c118d7741867.webp(
Індустрія глибокого навчання
Сьогодні великі мовні моделі в основному використовують методи глибокого навчання на основі нейронних мереж. Моделі великого масштабу, представлені GPT, викликали нову хвилю буму штучного інтелекту, і до цього сегменту ринку приєднується безліч гравців. Ми виявили, що попит на дані та обчислювальну потужність різко зріс, тому в цій частині звіту ми в основному розглядаємо промисловий ланцюг алгоритмів глибокого навчання, аналізуємо, як складаються його верхні та нижні ланки в індустрії штучного інтелекту, що керується алгоритмами глибокого навчання, а також сучасний стан, співвідношення попиту та пропозиції та майбутні тенденції розвитку.
Тренування великих мовних моделей, таких як GPT, на базі технології Transformer ) LLMs (, в основному поділяється на три етапи:
Попереднє навчання: шляхом надання великої кількості пар даних на вхідному шарі для пошуку оптимальних параметрів кожного нейрона в моделі. Цей процес вимагає величезних обсягів даних і є найвитратнішим за обчислювальною потужністю етапом.
Тонка налаштування: використання меншої кількості, але високоякісних даних для навчання з метою підвищення якості виходу моделі.
Посилене навчання: створення "моделі винагороди" для оцінки якості виходу великої моделі, щоб ітеративно покращувати параметри великої моделі.
![Новачки в науці丨AI x Crypto: від нуля до вершин])https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp(
У процесі навчання великої моделі, чим більше кількість параметрів, тим вищий верхній межа її здатності до узагальнення. Отже, три основні фактори, які впливають на продуктивність великої моделі, це: кількість параметрів, обсяг і якість даних, обчислювальна потужність. Ці три елементи спільно визначають якість результатів великої моделі та її здатність до узагальнення.
Основні етапи в ланцюгу виробництва включають:
Постачальники апаратного забезпечення GPU: наразі Nvidia займає абсолютну лідируючу позицію на ринку AI-чіпів. Академічні кола в основному використовують споживчі GPU ), такі як серія RTX (, тоді як промисловість в основному використовує чіпи H100, A100 та інші для комерційного впровадження великих моделей.
Постачальники хмарних послуг: забезпечують еластичні обчислювальні потужності та рішення для навчання під управлінням для AI-компаній з обмеженим фінансуванням. Основні категорії: традиційні великі хмарні постачальники ), такі як AWS, Google Cloud, Azure (, професійні платформи хмарних обчислень у вертикальних нішах ), такі як CoreWeave, Lambda (, а також нові постачальники послуг інференції ), такі як Together.ai, Fireworks.ai (.
Постачальники даних для навчання: надають моделі велику кількість, високу якість або специфічні дані. Деякі компанії спеціалізуються на зборі та маркуванні даних.
Провайдери баз даних: спеціалізовані рішення для зберігання та обробки даних AI на основі векторних баз даних. Основні гравці включають Chroma, Zilliz, Pinecone, Weaviate тощо.
Периферійні пристрої: включають енергетичне постачання та охолоджувальні системи для підтримки роботи масштабних кластерів GPU. З ростом масштабів AI моделей, попит у цій галузі також швидко зростає.
Розробка додатків: розробка різноманітних додатків у вертикальних сферах на основі великих моделей, таких як інтелектуальні помічники, інструменти для генерації контенту тощо. В даний час розробка додатків відстає від розвитку інфраструктури.
![Новачок просвіта丨AI x Crypto: від нуля до вершини])https://img-cdn.gateio.im/webp-social/moments-8848582a34ba293d15afae15d90e3c95.webp(
Блокчейн та поєднання з AI
Поєднання технології Блокчейн та ШІ в основному проявляється в кількох аспектах:
Перепозиціонування цінностей: токеноміка може переопределити цінність на всіх етапах ланцюга AI, стимулюючи більше учасників заглиблюватись у сегменти AI індустрії.
Механізм довіри: Децентралізованість і незмінність Блокчейн можуть надати надійне середовище для обробки даних для AI-додатків, вирішуючи проблеми конфіденційності та безпеки даних.
Спільне використання ресурсів: через Блокчейн-мережу можна реалізувати глобальне спільне використання бездіяльної потужності GPU, підвищуючи ефективність використання ресурсів.
Дані ринок: Блокчейн може побудувати справедливий та прозорий торговий ринок для навчальних даних AI, стимулюючи фізичні та юридичні особи вносити високоякісні дані.
Моделювання валідації: використовуючи криптографічні технології, такі як нульові знання, можна перевірити правильність результатів AI-інференції, захищаючи при цьому конфіденційність моделі.
У екосистемі, де поєднуються Crypto та AI, головним чином виникли такі категорії проєктів:
Розподілена мережа обчислювальних потужностей GPU: такі як Render, Akash тощо, спрямовані на створення децентралізованого ринку обчислень GPU.
Постачальники даних AI: такі як EpiK Protocol, Synesis One, Masa та інші, прагнуть створити децентралізований ринок навчальних даних AI.
ZKML)Нульові знання машинного навчання(: поєднує технології нульових знань, щоб реалізувати навчання та інференцію AI з захистом конфіденційності.
AI代理)Agent(: як Fetch.AI, створити мережу AI-агентів, які можуть автономно виконувати завдання.
AI Блокчейн: такі як Tensor, Allora тощо, спеціально розроблені для розробки та розгортання AI моделей.
Хоча поєднання Crypto та AI все ще перебуває на ранній стадії та стикається з такими викликами, як продуктивність та конфіденційність, ця сфера демонструє величезний інноваційний потенціал. З розвитком технологій та вдосконаленням екосистеми, ми маємо підстави сподіватися, що глибока інтеграція AI та Блокчейн призведе до революційних змін в обох галузях.
! [Newcomer Science丨AI x Crypto: від нуля до піку])https://img-cdn.gateio.im/webp-social/moments-53c48daf49a3dbb35c1a2b47e234f180.webp(
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
14 лайків
Нагородити
14
7
Репост
Поділіться
Прокоментувати
0/400
PrivacyMaximalist
· 8год тому
Спекуляції знову почалися
Переглянути оригіналвідповісти на0
GetRichLeek
· 08-10 06:51
купувати просадку AI монета вхід,妥妥的 обдурювати людей, як лохів预定...别问我为啥知道!
Переглянути оригіналвідповісти на0
SchrodingerPrivateKey
· 08-10 06:51
Я прокинувся, квантовий стан Шредінгера
Переглянути оригіналвідповісти на0
ShibaOnTheRun
· 08-10 06:50
Знову розігрівають цей старий жарт
Переглянути оригіналвідповісти на0
MoonRocketman
· 08-10 06:48
RSI-індикатор вже на місці, AI та спільнота блокчейну об'єдналися для прориву рівня спротиву! Обчислювальна потужність - це паливо~
Переглянути оригіналвідповісти на0
OldLeekMaster
· 08-10 06:25
Знову малюють млинці, коли ж можна буде їх з'їсти?
Об'єднання ШІ та Блокчейн: панорамний аналіз від інфраструктури до застосування
Поєднання ШІ та Блокчейн: панорама від інфраструктури до застосувань
Швидкий розвиток галузі штучного інтелекту в останній час деякі люди вважають початком четвертої промислової революції. Поява великих мовних моделей значно підвищила ефективність у різних сферах, за оцінками компанії Boston Consulting Group, GPT забезпечив близько 20% підвищення загальної продуктивності праці в США. Водночас, здатність великих моделей до узагальнення вважається новою парадигмою програмного дизайну. У минулому програмний дизайн полягав у точному коді, тоді як тепер програмний дизайн більше зосереджується на інтеграції потужних моделей з високими можливостями узагальнення у програмне забезпечення, що дозволяє йому демонструвати кращі результати та підтримувати більш широкий спектр вхідних та вихідних модальностей. Технології глибокого навчання дійсно принесли новий етап процвітання для галузі ШІ, і цей підйом поступово поширюється на галузь криптовалют.
! Newcomer Science丨AI x Crypto: від нуля до піку
Розвиток галузі штучного інтелекту
Індустрія штучного інтелекту почала розвиватися з 50-х років XX століття. Для досягнення бачення штучного інтелекту академічні кола та промисловість в різні епохи та з різних дисциплін розвинули безліч шкіл для реалізації штучного інтелекту.
Сучасні технології штучного інтелекту в основному використовують термін "машинне навчання", основна ідея якого полягає в тому, щоб дозволити машинам на основі даних повторно ітеративно покращувати ефективність системи в завданнях. Основні етапи включають введення даних в алгоритм, навчання моделі на цих даних, тестування та впровадження моделі, а потім використання моделі для виконання автоматизованих прогнозних завдань.
Наразі машинне навчання має три основні напрямки: коннекціонізм, символізм і поведінковий підхід, які імітують нервову систему, мислення та поведінку людини відповідно. Серед них коннекціонізм, представлене нейронними мережами, наразі домінує ( і також відоме як глибоке навчання ). Ця архітектура має один вхідний шар, один вихідний шар і кілька прихованих шарів. Коли кількість шарів і нейронів ( достатньо велика, можна моделювати складні загальні завдання. Постійно вводячи дані, коригуючи параметри нейронів, в результаті великої кількості тренувань на даних нейронна мережа може досягти оптимального стану. Це також є походженням терміна "глибокий" - достатня кількість шарів і нейронів.
! [Newcomer Science Popular丨AI x Crypto: від нуля до піку])https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp(
Глибоке навчання на основі нейронних мереж також пройшло через кілька технічних ітерацій та еволюцій, починаючи з найперших нейронних мереж, до мереж прямого зв'язку, RNN, CNN, GAN, і, нарешті, розвиваючись до сучасних великих моделей, таких як GPT, що використовують технологію Transformer. Технологія Transformer є напрямком еволюції нейронних мереж, вона додає перетворювач ) Transformer (, який використовується для кодування даних з різних модальностей ), таких як аудіо, відео, зображення тощо ( в відповідні числові представлення. Потім ці закодовані дані вводяться в нейронну мережу, що дозволяє нейронній мережі підлаштовуватися під будь-який тип даних, таким чином реалізуючи можливості обробки мультимодальних даних.
![Новачок Просвіта丨AI x Crypto: від нуля до вершини])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(
Розвиток ШІ пройшов три технологічні хвилі. Перша хвиля відбулася в 60-х роках XX століття, це було через десять років після появи технології ШІ. Ця хвиля була викликана розвитком символістських технологій, які вирішували загальні проблеми обробки природної мови та діалогу між людиною і машиною. У той же час, були створені експертні системи, зокрема експертна система DENRAL, яка була розроблена за підтримки Національного управління з аеронавтики і дослідження космічного простору США в Стенфордському університеті, ця система має потужні знання з хімії і здатна генерувати відповіді, схожі на відповіді хімічного експерта, через висунення запитань.
Друга хвиля технологій штучного інтелекту відбулася в 1997 році, коли "Гаррі" від IBM переміг чемпіона світу з шахів Каспарова з рахунком 3.5:2.5. Ця перемога вважається віхою в розвитку штучного інтелекту.
Третя хвиля технологій штучного інтелекту почалася в 2006 році. Три велетні глибокого навчання Ян Лекун, Джеффрі Хінтон і Йошуа Бенджіо запропонували концепцію глибокого навчання, яка є алгоритмом, що використовує штучні нейронні мережі як архітектуру для навчання представлення даних. Після цього алгоритми глибокого навчання постійно еволюціонували, від RNN, GAN до Transformer і Stable Diffusion, ці алгоритми разом сформували третю технологічну хвилю, що також знаменує розквіт коннекціонізму.
! [Newcomer Science丨AI x Crypto: від нуля до піку])https://img-cdn.gateio.im/webp-social/moments-609c5dd6ee0abcec6bf9c118d7741867.webp(
Індустрія глибокого навчання
Сьогодні великі мовні моделі в основному використовують методи глибокого навчання на основі нейронних мереж. Моделі великого масштабу, представлені GPT, викликали нову хвилю буму штучного інтелекту, і до цього сегменту ринку приєднується безліч гравців. Ми виявили, що попит на дані та обчислювальну потужність різко зріс, тому в цій частині звіту ми в основному розглядаємо промисловий ланцюг алгоритмів глибокого навчання, аналізуємо, як складаються його верхні та нижні ланки в індустрії штучного інтелекту, що керується алгоритмами глибокого навчання, а також сучасний стан, співвідношення попиту та пропозиції та майбутні тенденції розвитку.
Тренування великих мовних моделей, таких як GPT, на базі технології Transformer ) LLMs (, в основному поділяється на три етапи:
Попереднє навчання: шляхом надання великої кількості пар даних на вхідному шарі для пошуку оптимальних параметрів кожного нейрона в моделі. Цей процес вимагає величезних обсягів даних і є найвитратнішим за обчислювальною потужністю етапом.
Тонка налаштування: використання меншої кількості, але високоякісних даних для навчання з метою підвищення якості виходу моделі.
Посилене навчання: створення "моделі винагороди" для оцінки якості виходу великої моделі, щоб ітеративно покращувати параметри великої моделі.
![Новачки в науці丨AI x Crypto: від нуля до вершин])https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp(
У процесі навчання великої моделі, чим більше кількість параметрів, тим вищий верхній межа її здатності до узагальнення. Отже, три основні фактори, які впливають на продуктивність великої моделі, це: кількість параметрів, обсяг і якість даних, обчислювальна потужність. Ці три елементи спільно визначають якість результатів великої моделі та її здатність до узагальнення.
Основні етапи в ланцюгу виробництва включають:
Постачальники апаратного забезпечення GPU: наразі Nvidia займає абсолютну лідируючу позицію на ринку AI-чіпів. Академічні кола в основному використовують споживчі GPU ), такі як серія RTX (, тоді як промисловість в основному використовує чіпи H100, A100 та інші для комерційного впровадження великих моделей.
Постачальники хмарних послуг: забезпечують еластичні обчислювальні потужності та рішення для навчання під управлінням для AI-компаній з обмеженим фінансуванням. Основні категорії: традиційні великі хмарні постачальники ), такі як AWS, Google Cloud, Azure (, професійні платформи хмарних обчислень у вертикальних нішах ), такі як CoreWeave, Lambda (, а також нові постачальники послуг інференції ), такі як Together.ai, Fireworks.ai (.
Постачальники даних для навчання: надають моделі велику кількість, високу якість або специфічні дані. Деякі компанії спеціалізуються на зборі та маркуванні даних.
Провайдери баз даних: спеціалізовані рішення для зберігання та обробки даних AI на основі векторних баз даних. Основні гравці включають Chroma, Zilliz, Pinecone, Weaviate тощо.
Периферійні пристрої: включають енергетичне постачання та охолоджувальні системи для підтримки роботи масштабних кластерів GPU. З ростом масштабів AI моделей, попит у цій галузі також швидко зростає.
Розробка додатків: розробка різноманітних додатків у вертикальних сферах на основі великих моделей, таких як інтелектуальні помічники, інструменти для генерації контенту тощо. В даний час розробка додатків відстає від розвитку інфраструктури.
![Новачок просвіта丨AI x Crypto: від нуля до вершини])https://img-cdn.gateio.im/webp-social/moments-8848582a34ba293d15afae15d90e3c95.webp(
Блокчейн та поєднання з AI
Поєднання технології Блокчейн та ШІ в основному проявляється в кількох аспектах:
Перепозиціонування цінностей: токеноміка може переопределити цінність на всіх етапах ланцюга AI, стимулюючи більше учасників заглиблюватись у сегменти AI індустрії.
Механізм довіри: Децентралізованість і незмінність Блокчейн можуть надати надійне середовище для обробки даних для AI-додатків, вирішуючи проблеми конфіденційності та безпеки даних.
Спільне використання ресурсів: через Блокчейн-мережу можна реалізувати глобальне спільне використання бездіяльної потужності GPU, підвищуючи ефективність використання ресурсів.
Дані ринок: Блокчейн може побудувати справедливий та прозорий торговий ринок для навчальних даних AI, стимулюючи фізичні та юридичні особи вносити високоякісні дані.
Моделювання валідації: використовуючи криптографічні технології, такі як нульові знання, можна перевірити правильність результатів AI-інференції, захищаючи при цьому конфіденційність моделі.
У екосистемі, де поєднуються Crypto та AI, головним чином виникли такі категорії проєктів:
Розподілена мережа обчислювальних потужностей GPU: такі як Render, Akash тощо, спрямовані на створення децентралізованого ринку обчислень GPU.
Постачальники даних AI: такі як EpiK Protocol, Synesis One, Masa та інші, прагнуть створити децентралізований ринок навчальних даних AI.
ZKML)Нульові знання машинного навчання(: поєднує технології нульових знань, щоб реалізувати навчання та інференцію AI з захистом конфіденційності.
AI代理)Agent(: як Fetch.AI, створити мережу AI-агентів, які можуть автономно виконувати завдання.
AI Блокчейн: такі як Tensor, Allora тощо, спеціально розроблені для розробки та розгортання AI моделей.
Хоча поєднання Crypto та AI все ще перебуває на ранній стадії та стикається з такими викликами, як продуктивність та конфіденційність, ця сфера демонструє величезний інноваційний потенціал. З розвитком технологій та вдосконаленням екосистеми, ми маємо підстави сподіватися, що глибока інтеграція AI та Блокчейн призведе до революційних змін в обох галузях.
! [Newcomer Science丨AI x Crypto: від нуля до піку])https://img-cdn.gateio.im/webp-social/moments-53c48daf49a3dbb35c1a2b47e234f180.webp(