XII Міжнародний Фестиваль Sikorsky Challenge 2023 відбувся!!!!

З 24 по 27 жовтня в КПІ ім. Ігоря Сікорського відбувся XII Міжнародний Фестиваль Sikorsky Challenge 2023 . На цьогорічний Конкурс інноваційних стартап-проєктів було подано 200 заявок. До фіналу  експертами були відібрані 130 проєктів за 5-ма секціями:.   "Авіація і космос"- 49   "Інфраструктура та промисловий хайтек"- 14    "Інформаційні технології, цифрова країна, кібербезпека" - 14   "Біомедична інженерія та здоров’я людини" - 29  "Енергетична та екологічна безпека, «зелена» енергетика" - 17 Окремо були представлені позаконкурсні міжнародні грантові проєкти та стартапи  іноземних університетів/організацій – партнерів Sikorsky Challenge Ukraine. На участь у Фестивалі зареєструвалась рекордна кількість учасників - 860 осіб  (710 очно та 150 дистанційно). За подіями цьогорічного Фестивалю спостерігали  з  19 країн світу: США, Британії, Ізраїлю, Японії, Німеччини, Іспанії, Швеції, Туреччина, Португалія,  Чехія, Болгарія, Румунія, Польща,

Вчені знайшли "криптоніт" штучного інтелекту, який зводить його з розуму

Великі мовні моделі та генератори зображень (штучний інтелект), як з'ясувалося, буквально сходять з розуму, коли їх намагаються навчати на контенті, який був згенерований ними самими. Таке, схоже на уроборос (міфологічний змій, що обвиває Землю, схопивши себе за хвіст) самоспоживання призводить до того, що цифровий мозок генеративної моделі ламається.

Про це йдеться у дослідженні вчених з Університету Райса і Стенфордського університету, яке доступне на сайті препринтів arXiv. Таким чином вчені виявили своєрідний криптоніт (камінь, який перетворював Супермена на звичайну людину, позбавляючи суперсил) штучного інтелекту.

Як пояснили дослідники, значні досягнення в генеративних алгоритмах ШІ для зображень, тексту та інших типів даних призвели до того, що у його розробників виникла спокуса використовувати синтетичні дані для навчання моделей ШІ наступного покоління. Але ніхто не знав, як саме реагуватиме ШІ, якщо згодувати йому його ж власні творіння.

"Наш основний висновок з усіх сценаріїв полягає в тому, що без достатньої кількості свіжих реальних даних у кожному поколінні автофагової (самопоглинаючої) петлі майбутні генеративні моделі приречені на поступове зниження якості (точності) або різноманітності", – заявили вчені за результатами дослідження.

Стан, який виникає внаслідок таких дії вони назвали MAD (прямий переклад – божевілля). Абревіатура походить від Model Autophagy Disorder, що в перекладі з англійської означає "Розлад аутофагії у моделі".

Ймовірно, розмови про революцію ШІ можна дещо призупинити, оскільки без "свіжих реальних даних", а простіше – оригінальної людської роботи, результати ШІ стануть суттєво гіршими.

Дослідникам вдалося встановити, що при багаторазовому навчанні на синтетичному контенті видача ШІ стає більш примітивною, аж поки не перетворюється на одноманітну.

Термін MAD, придуманий дослідниками, відображає цей процес самопоглинання.

Як детально описано в статті, протестована модель ШІ пройшла лише п'ять раундів навчання з синтетичним контентом, перш ніж почали з'являтися серйозні негаразди.

Така ситуація може стати справжньою проблемою для команії OpenAI, яка є одним з головних гравців на ринку ШІ прямо зараз. З'ясувалося, що компанія для навчання свого штучного інтелекту використовувала величезну кількість текстів, які були згенеровані користувачами інтернету, і часто це робилося в порушення авторського права.

І, оскільки проти OpenAI уже подано судові позови, що пов'язані із незаконним використанням контенту, компанії потрібно щось власного виробництва, аби ШІ продовжував розвиватися. Але тепер виникла ситуація, коли найпростіший варіант, який міг усе врятувати – використання того, що було створене самим ШІ, ні до чого доброго не призведе.

За матеріалами obozrevatel


Коментарі