Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. «Опасная эскалация». В ООН призвали Беларусь приостановить введение в действие подписанного накануне Лукашенко закона
  2. На аукцион выставили ТЦ известного бизнесмена, который признан политзаключенным. Его задержали в аэропорту после возвращения в Беларусь
  3. Синоптики рассказали, когда придет похолодание
  4. В Шумилино пьяный мужчина отобрал у милиционера пистолет, приставил его к голове сотрудника и нажал на курок — видео
  5. Банки продолжают пересматривать ставки по кредитам на Geely. Под какой процент теперь можно взять такой заем
  6. Лукашенко подписал указ о призыве офицеров запаса на военную службу
  7. Беларусы вскоре столкнутся с еще одним финансовым ограничением в ЕС — подробности
  8. «Сенсационные результаты». Эксперты рассказали, кто контролирует рынок новых автомобилей в Беларуси
  9. Ответственность для нетрезвых самокатчиков ужесточили, а для «случайных» бесправников — смягчили. В ГАИ рассказали об изменениях
  10. Офис студии ZROBIM architects работает. Узнали, что интересовало силовиков
  11. Кто тот иностранец, которого обвиняют в убийстве жены и изнасиловании падчерицы в Добруше
  12. «Будете картошку перебирать, его позовите!» Экс-министр внутренних дел Караев проинспектировал фермы — получилась пародия на Лукашенко
  13. Сталкера, который привязал к машине Анны Бонд красно-зеленый флажок, нашли. Что было дальше
  14. Зеленский: «Поручил по соответствующим каналам предупредить фактическое руководство Беларуси о готовности Украины защищать свою землю»


Глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, профессор компьютерных наук Стюарт Рассел и еще около тысячи экспертов из сферы ИИ призвали приостановить обучение нейросетей более мощных, чем GPT-4, так как это может представлять угрозу для всего человечества. Об этом они заявили в открытом письме, которое опубликовано на сайте организации Future of Life Institute.

Фотография используется в качестве иллюстрации. Фото: pixabay.com
Фотография используется в качестве иллюстрации. Фото: pixabay.com

В письме говорится, что системы ИИ с человеко-конкурентным интеллектом могут нести серьезные риски для общества и человечества. В нем содержится призыв к лабораториям приостановить обучение на шесть месяцев.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — подчеркивают авторы письма.

В письме также указывается, что лаборатории и независимые эксперты должны использовать паузу в шесть месяцев для совместной разработки и внедрения набора общих протоколов, которые должны гарантировать безопасность.

Напомним, в конце января Microsoft объявила о многолетних и многомиллиардных инвестициях в лабораторию искусственного интеллекта (ИИ) OpenAI, которая среди прочего создала чат-бот ChatGPT. Microsoft не назвала конкретную сумму, но СМИ сообщали об объеме в 10 млрд долларов.

ChatGPT — это чат-бот, основанный на последней версии языковой модели GPT. Он был запущен в конце ноября 2022 года, а спустя всего неделю после запуска число его пользователей достигло 1 млн.

Такая популярность, по словам разработчиков, объясняется тем, что ChatGPT обучен «отвечать на последовательные вопросы, признавать свои ошибки, оспаривать некорректные вводные данные и отклонять неуместные вопросы».

В Сети можно найти много примеров использования ChatGPT: от составления резюме или инвестиционного портфеля до написания приветственного сообщения в приложении для знакомств или речи в Конгрессе США, от стихов до помощи в написании программного кода.