Ризик «зникнення»: розробники та дослідники штучного інтелекту виступили із заявою

Ризик «зникнення»: розробники та дослідники штучного інтелекту виступили із заявою
Сьогодні десятки лідерів індустрії штучного інтелекту (ІІ), вчених і навіть деяких знаменитостей закликали знизити ризик глобального знищення завдяки штучному інтелекту, стверджуючи в короткій заяві, що загроза зникнення штучного інтелекту має бути головним глобальним пріоритетом.
"Зменшення ризику зникнення через ІІ має бути глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна", - йдеться у заяві, опублікованій Центром безпеки ІІ.
Заява була підписана провідними представниками галузі, включаючи генерального директора OpenAI Сема Альтмана, так званий "хрещений батько" ІІ Джефрі Гінтон, топ-менеджери та дослідники Google DeepMind та Anthropic, Кевін Скотт, головний технічний директор Microsoft, Брюс Шнаєр, піонер безпеки в Інтернеті , захисник клімату Білл Маккіббен та музикант Граймс.
У заяві підкреслюється широке занепокоєння щодо кінцевої небезпеки неконтрольованого штучного інтелекту. Фахівці з ІІ кажуть, що суспільство ще далеке від розвитку спільного ІІ, яке є предметом наукової фантастики. Сучасні передові чат-боти в основному відтворюють шаблони на основі даних, які вони отримали, і не думають самостійно.
Проте, потік ажіотажу та інвестицій у індустрію штучного інтелекту призвели до закликів регулювання на початку епохи штучного інтелекту, як відбудуться серйозні невдачі.
Ця заява з'явилася після вірусного успіху OpenAI's ChatGPT, який допоміг посилити гонку озброєнь у технологічній індустрії ІІ. У відповідь на це все більше законодавців, правозахисних груп та технічних інсайдерів висловлюють тривогу щодо потенціалу нової серії чат-ботів на основі ІІ для поширення дезінформації та витіснення робочих місць.
Хінтон, чия новаторська робота допомогла сформувати сучасні системи штучного інтелекту, раніше сказав CNN, що вирішив залишити свою посаду в Google і проголосити у свисток про цю технологію після того, як усвідомив, що ці речі стають розумнішими за нас.
Ден Хендрікс, директор Центру безпеки штучного інтелекту, написав у Twitter у вівторок, що твердження, вперше запропоноване Девідом Кройгером, професором ІІ в Кембридському університеті, не перешкоджає суспільству звертатися до інших типів ризику ІІ, таких як упередженість алгоритмів або дезінформація.
“Суспільство може керувати кількома ризиками одночасно; це не "або/або", а "так/і", - твітнув Хендрікс. "З точки зору управління ризиками, так само як було б необачно визначати пріоритетність поточних збитків, було б також безрозсудно ігнорувати їх".
З'явилися нові фото та відео з місця падіння бойової частини «шахеда» у Миколаєві
На проспекті у Миколаєві водії маневрують між «квадратами» вирізаного асфальту (відео)
Над Миколаєвом ворожі «шахеди»: у місті вибухи, працює ППО (відео)
Танцювали на автомобілі: поліція притягнула до відповідальності молодиків у Миколаєві (відео)
Через несправний світлофор зіткнулися Kia і Fiat в центрі Миколаєва: постраждала дитина (відео)
8 березня у Миколаєві: на квіткових ринках ажіотаж (фоторепортаж)
Mercedes перевернув Mitsubishi у Миколаєві: двох людей забрала «швидка» (відео)
Вечірня атака на Миколаїв: очевидці повідомили подробиці
Вечірня атака на Миколаїв: «шахед» пробив залізобетонну стіну дев'ятиповерхівки (фото, відео)













