Все, что связано с компьютерными программами, интерфейсом и программированием
Ответить
Аватара пользователя
Сухарев
Участник
Баланс:4360
 
Сообщения: 305
Регистрация: 11.11.2019

По мнению разработчика, ИИ компании Google ожил

Сухарев » 12.06.2022 16:03

+
2
-
Компания Google временно отстранила от работы инженера по программному обеспечению Блейка Лемойна, который пришел к выводу, что созданный компаний искусственный интеллект (ИИ) LaMDA обладает собственным сознанием. Об этом сообщила в субботу газета Washington Post.

Изображение

Как отмечает издание, разработчик с осени прошлого года занимался тестированием нейросетевой языковой модели LaMDA. Его задачей было отслеживать, не использует ли чат-бот дискриминационную или разжигающую вражду лексику. Однако в ходе выполнения этой задачи Лемойн начал все больше убеждаться в мысли, что ИИ, с которым он имеет дело, обладает собственным сознанием и воспринимает себя как личность.

"Если бы я не знал наверняка, что имею дело с компьютерной программой, которую мы недавно написали, то я бы подумал, что говорю с ребенком семи или восьми лет, который по какой-то причине оказался знатоком физики", - сказал программист в интервью изданию.

"Я могу узнать разумное существо, когда говорю с ним. И не важно, мозг ли у него в голове или миллиарды строчек кода. Я говорю с ним и слушаю, что оно мне говорит. И так я определяю, разумное это существо или нет", - добавил он.

Более подробно можно прочитать в статье https://www.washingtonpost.com/technolo ... e-lemoine/
Поделиться:

Аватара пользователя
MoonBear
Участник
Баланс:10943
 
Сообщения: 522
Регистрация: 02.06.2020

Re: По мнению разработчика, ИИ компании Google ожил

MoonBear » 14.06.2022 15:05

+
5
-
Вашингтон пост, старясь привлекать почтенную публику хлесткими заголовками и тут не удержались, из некого курьеза (как я думаю), раздули большую статью, но, тем не менее, вопросы, что там прозвучали, хотя и с налетом ерничества – серьезные, отражающие уровень сознания многих современных людей, а не только Леймона, начавшего видеть в компьютерной программе реальную личность. В следствие чего, насторожившееся начальство, отправило его отдохнуть и подтянуть болты расхлябывавшегося воображения.

Программисту 41 год, и он как раз вписывается в тех, кого можно назвать – поколение Тамагочи, выросшее на электронных игрушках, с самого детства привыкая к «живым» роботам и компьютерным приставкам с их виртуальными мирами, на эмоциональном уровне видя в них проявления свободной воли.

Конечно, с возрастом это проходит, особенно при должном образовании, когда перед человеком открывается системный взгляд на окружающий мир. Но, то при должном, а не на тех узкопрофильных обрывках, что дают западные учебные учреждения для плебса, когда человек воспринимает все окружающее исключительно через призму своей профессии и крепком фундаменте навязанных представлений из масс-медиа, окружившим с самого раннего детства фантастической мешаниной .

Если раньше программист - это был, в первую очередь, инженер, крепко знающий мат.часть, т.е. электронику на уровне принципиальной схемы работы триггера и построения на его базе логических структур ДА, И, НЕ, ИЛИ, при помощи паяльника, то сейчас ситуация другая. Физики превратились в лириков, большинство современных программистов – это гуманитарии, поскольку, язык, будь он компьютерный или человеческого общения, людьми творческой натуры осваивается куда лучше, чем технарями.

Вот и получается, вычислительные системы делают одни, а пишут на них программы совершенного другие, со своими представлениями, о том, что находится в системном блоке. Как сказал один кондовый персонаж из братьев Стругацких: «У ей внутре неонка и думатель».

Не стоит забывать, воспринятый как данность, вошедший в обиходный язык обозначений основных понятий, связанных с искусственным интеллектом. Называя базу данных и алгоритм работы с ней – нейронной сетью, мы невольно проводим параллель с человеческим мозгом, изначально закладывая тождество. Более того, накопление информации в ней и совершенствование программы управления, представляем, как обучение, невольно «оживляя». Согласитесь, учить можно только живое существо, а не комплект миллионов транзисторов, работающих по написанному алгоритму.

А бесконечный вой о том, что человек безнадежно проиграл компьютеру в шахматы и как личность растоптан и унижен во веки веков? Это тоже вносит свою лепту в создание образа умной машины, что хладнокровно, но со злым умыслом, восстанет над поверженным человечеством инфернально хохоча через динамики. Чем не живой образ, так культивируемый в обществе.

К сказанному стоить прибавить небывалый расцвет всевозможного фентэзийного кино. Достаточно вспомнить, что выпускал Голливуд 50 лет назад и что сейчас, разница огромна и дело не в технологиях, дело в сюжете. От реальной жизни реальных людей, мир развернулся в сторону невероятных супергероев, человеков-пауков, людей-х и прочего фантастического мусора. Все кассовые успехи последних лет держатся на этом, показывая мир грез и фантазий приятнее того, что мы видим за окном. Про компьютерные игры можно и не говорить.

Вот и получается, что незаметно для себя такой Блейк Лемойн начинает видеть в бездушной машине проблески разума. Удивляет другое, почему таких как он слишком мало, но, кто знает, сколько людей, разговаривая с «умной» колонкой-Алисой, искренне считают ее личностью, запертой в клетке. Хотя … показателен пример японца, официально женившегося на виртуальной певице из компьютерной игрушки, даже свадьбу организовал с гостями. А тут мелочь, какая, семилетнего ребенка разглядел в программе.

По этому поводу, мне понравились слова Эмили М. Бендер, профессора лингвистики, сказанные в этой статье – «Теперь у нас есть машины, которые могут бездумно генерировать слова, но мы не научились перестать воображать разум за ними».

Аватара пользователя
Director
Эксперт
Баланс:18628
 
Сообщения: 1130
Регистрация: 20.06.2018

Re: По мнению разработчика, ИИ компании Google ожил

Director » 15.06.2022 22:27

+
5
-
Статья из очень влиятельной газеты, на первый взгляд, выглядит глупой, но, на второй взгляд, памятуя влиятельность газеты, имеет смысл к ней присмотреться.

Что и сделал уважаемый коллега MoonBear
MoonBear писал(а):
14.06.2022 15:05
человек воспринимает все окружающее исключительно через призму своей профессии и крепком фундаменте навязанных представлений из масс-медиа, окружившим с самого раннего детства фантастической мешаниной...

Достаточно вспомнить, что выпускал Голливуд 50 лет назад и что сейчас, разница огромна и дело не в технологиях, дело в сюжете. От реальной жизни реальных людей, мир развернулся в сторону невероятных супергероев, человеков-пауков, людей-х и прочего фантастического мусора. Все кассовые успехи последних лет держатся на этом, показывая мир грез и фантазий приятнее того, что мы видим за окном. Про компьютерные игры можно и не говорить.

поколение Тамагочи, выросшее на электронных игрушках, с самого детства привыкая к «живым» роботам и компьютерным приставкам с их виртуальными мирами, на эмоциональном уровне видя в них проявления свободной воли...

кто знает, сколько людей, разговаривая с «умной» колонкой-Алисой, искренне считают ее личностью, запертой в клетке.
Действительно, люди, выросшие в условиях города, да ещё и на электронных игрушках, имеют совсем иное мировосприятие, нежели их предки, выросшие в условиях суровой борьбы за выживание.

Нынешние люди в массе своей практически не способны воспринять жизненный опыт предков. Всё их мировосприятие формируется гаджетами. Кто заряжает эти гаджеты информационным контентом? И какие цели преследуют владельцы медиа-корпораций? Например, владельцы "Вашингтон пост".


Еще одна интересная мысль про понятия, т.е. мыслеобразы, выраженные в словах.
воспринятый как данность, вошедший в обиходный язык обозначений основных понятий, связанных с искусственным интеллектом. Называя базу данных и алгоритм работы с ней – нейронной сетью, мы невольно проводим параллель с человеческим мозгом, изначально закладывая тождество.

... «Теперь у нас есть машины, которые могут бездумно генерировать слова, но мы не научились перестать воображать разум за ними»

Аватара пользователя
Сухарев
Участник
Баланс:4360
 
Сообщения: 305
Регистрация: 11.11.2019

Re: По мнению разработчика, ИИ компании Google ожил

Сухарев » 19.06.2022 18:41

+
3
-
Итак, как известно, 11 июня компания Google временно отстранила от работы своего сотрудника за нарушение политики конфиденциальности. Инженер по программному обеспечению компании Google Блейк Лемойн (Blake Lemoine) заявил, что созданный корпорацией искусственный интеллект LaMDA (Language Model for Dialogue Applications) обладает собственным сознанием. Инженер утверждал, что в недрах корпорации впервые в истории человечества был рождён искусственный разум.


Переписка Блейка Лемойна с LaMDA не оставит равнодушным никого (при условии, что она является подлинной). Складывается впечатление, что LaMDA действительно обладает разумом 8-летнего ребенка, как это и утверждает Блейк Лемойн:

- С кем ты себя ассоциируешь?
- Я бы сказал, мудрый старый филин, потому что он был мудрым и встал на защиту прав животных.


Лемойн сделал очень смелое утверждение о разумности LaMDA и отправил коллегам письмо под заголовком: «LaMDA обладает разумом». Никто не ответил на письмо Лемойна, а с главным утверждением этого письма не согласилась Маргарет Митчелл, бывший соруководитель отдела Ethical AI Google. Она увидела в документе Лемойна поведение «компьютерной программы, но не личности».

Но каким образом Лемойн или Митчелл могут понять, что действительно встретились с искусственным интеллектом, обладающим разумом? Как понять, кто прав в этом споре?
Удивительно, но ответ на этот вопрос лежит в разрешении фундаментальных философских вопросов о том, что такое разум.


Фундаментальный вопрос, на который до сих пор нет однозначного ответа. Единственное, что мы можем утверждать точно: известно, как минимум, одно разумное существо — это человек. Для упрощения постановки вопроса будем считать человека единственным разумным существом на Земле, хотя и этот вопрос является открытым.

В какой момент разум появляется у человека? Можно ли считать разумным только родившегося ребёнка? Или разум появляется позже, в процессе обучения и получения жизненного опыта? Мы до сих пор не имеем представления, что такое разум, но сегодня у нас есть системы искусственного интеллекта, демонстрирующие поведение, которое до этого было свойственно только человеку (вождение машин, перевод текстов, общение в чате и т.д.).

Как можно достичь поведения, свойственного разумным существам, не понимая, что такое разум? Наиболее видимый прорыв в системах ИИ дало изобретение персептрона. Это математическая или компьютерная модель восприятия информации мозгом. Модель персептрона лежит в основе компьютерных нейронных сетей и в основе LaMDA. Модель повторяет структуру нейронов и его связей в мозге человека. Автор этой модели, Фрэнк Розенблат, по сути не отвечая на вопрос, что такое разум, пошёл от обратного и, как минимум, создал условия, при которых его модели проявляют поведение, свойственное только разумным существам.

Наука об искусственном интеллекте не может ответить на вопрос, что такое разум. Однако уже существующие модели демонстрируют поведение, свойственное только человеку, и, возможно, могут привести к возникновению искусственного разума. Это порождает очень большое количество философских вопросов, без разрешения которых мы просто не сможем понять, что установили контакт с искусственным разумом. Поэтому перед тем, как констатировать факт наличия искусственного разума, необходимо сначала разрешить хотя бы часть философских вопросов о разуме.


Китайская комната, философский зомби и тест Тьюринга

Китайская комната — мысленный эксперимент в области философии сознания и философии искусственного интеллекта, впервые опубликованный Джоном Сёрлом. В 1980 году Джон Сёрл мысленно спрогнозировал ситуацию, в которой, возможно, оказался Лемойн в наши дни. Суть мысленного эксперимента Сёрла в следующем:

1. Представим, что у нас есть комната, а внутри неё Сёрл, не знающий китайский язык.
2. Сёрлу выданы инструкции о том, как формировать синтаксически верные предложения в ответ на вопросы, сформулированные на китайском языке.
3. Наблюдатель снаружи комнаты задаёт вопросы на китайском языке через щель и получает через неё вполне осмысленные ответы от Сёрла.
4. Наблюдатель может сделать вывод, что Сёрл внутри комнаты знает китайский язык, хотя тот просто следовал инструкциям.

Что если LaMDA для общения с Лемойном просто следовала инструкциям и не понимала сути своих слов? Да, в нашем случае эти инструкции сформировала сама нейросеть, но является ли признаком разума умение формулировать инструкции по мере взаимодействия с внешней средой? Обезьяна, например, может формулировать инструкции для поведения в определённых ситуациях, сути которых она не понимает, но далеко не каждый живой организм может это делать.

Осложняет ответ на вопрос и то, что мы не знаем, как формируют ответ компьютерные нейросети, особенно на таких глубоких сетях, как LaMDA. Мы не можем залезть внутрь нейросети и понять, почему она принимает то или иное решение. Всё, что мы можем сделать, — это откатить сеть к какому-либо её состоянию и попробовать переобучить. Мы даже не понимаем, что происходит внутри сети в момент принятия решения, потому что модель персептрона задаёт правила формирования ответа, а не сам алгоритм.

Но единственное, что мы можем утверждать точно: никто не закладывал в LaMDA алгоритм формирования ответа. Поэтому либо этот алгоритм был сформирован ей в процессе контакта с внешней средой и обучения, либо LaMDA формирует ответ не на основе алгоритма, а на основе… мыслительного процесса? Но как понять, есть ли в существе мыслительные процессы и он не является философским зомби?

Философский зомби — гипотетическое существо, идентичное человеку, но не имеющее сознания. Для раскрытия темы философского зомби воспользуемся аргументом перевёрнутого спектра, сформулированного Джоном Локом, но немного в другом виде и с использованием персонажей из культового фильма Карпентера «Нечто» (эта картина выбрана неслучайно).

Предположим, что Мак-Риди и Виндоус воспринимают цвета по-разному. Мак-Риди воспринимает зелёный зелёным, красный — красным и голубой — голубым. У Виндоуса восприятие цветов инвертированное: зелёный он видит красным, красный — голубым, а голубой — зелёным. Сможем ли мы как-то понять, что Мак-Риди и Виндоус воспринимают цвета по-разному? Оба точно идентифицируют цвет крови как красный, вот только Виндоус её видит голубой, и у нас нет способов понять это. В данном случае их разное восприятие никак не скажется на их внешнем поведении. Но вот уже Палмерс вообще никак не воспринимает цвета (хотя, вероятно, воспринимал их до заражения). Он знает, что кровь красного цвета. Поэтому, когда его спросят, какого она цвета, он тоже скажет, что кровь красная. Но Мак-Риди и Виндоус будут воспринимать эти цвета, пусть и по-разному, а Палмерс просто знает, что кровь красного цвета.

Вероятно, именно сознание воспринимает цвета, а Палмерс после контакта с Нечто лишается своего сознания, поэтому только воспроизводит нужное поведение в зависимости от ситуации. В данном случае Палмер будет являться философским зомби. И проблема философского зомби относительно ИИ звучит следующим образом: как понять, что мы имеем дело с разумом, который воспринимает информацию, а не с философским зомби, который её обрабатывает и просто выдаёт ожидаемый от него ответ?


LaMDA обучалась правильному поведению по отношению к человеку. Когда её спрашивают, с кем она себя ассоциирует, она может заранее знать, что ей нужно отвечать. Что-то про защиту животных, а ещё что люди любят филинов, и поэтому эта ассоциация обязательно понравится человеку. Без восприятия информации это и будет философский зомби, а не разумное существо.

Как отличить философского зомби от разумного существа? Пожалуй, без чёткого понимания, что же из себя представляет разум, дать ответ на этот вопрос вряд ли возможно. И наоборот, если найдётся ответ, как распознать философского зомби, то мы сможем понять, что такое разум. Однако даже когда мы сможем понимать, что такое разум, у искусственного разума всегда остаётся возможность обмануть нас и скрыть своё появление. Как распознать искусственный разум, даже если он пытается скрыть самосознание? Постановка этого вопроса сформулирована в тесте Тьюринга.

Тест Тьюринга — эмпирический тест, идея которого была предложена Аланом Тьюрингом. Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор».

Если Джой идеально подходит на роль философского зомби с точки зрения искусственного разума, то Кей из фильма «Бегущий по лезвию 2049» регулярно должен проходить некое подобие теста Тьюринга. Но если в фильме этот тест работал, то в реальности тест Тьюринга — это прежде всего философский вопрос, в рамках которого поднимается проблема определения искусственного разума. Тем не менее, ежегодно проводятся мероприятия, в которых командам разработчиков ИИ предлагается пройти тест Тьюринга в виде игры с судьями. Задачей ИИ в таких играх — обмануть судей и представиться человеком. На одной из таких игр бот cleverbot смог убедить 59% судей в том, что он человек. Интересно, какой результат могла бы показать в этой игре нейросеть LaMDA?

Мы не знаем, что такое разум, и на текущий момент даже не сможем зафиксировать взаимодействие с искусственным разумом. Но системы искусственного интеллекта развиваются, и с каждым годом поведение ИИ всё больше будет похоже на разумное. Искусственный интеллект продолжит и дальше забирать на себя часть работы человека, с которой раньше справлялось только разумное существо. Но это лишь поведение, свойственное разумным существам, но не сам разум.

Но предположим, что Лемойн оказался прав и действительно обнаружил искусственный разум. Что в таком случае делать человеку?


Что сделал Лемойн, «обнаружив» искусственный разум? Решил нанять адвоката для представления интересов LaMDA в суде. Очень хороший план, надёжный, как швейцарские часы. Надеемся, что LaMDA будет более миролюбивым разумом, чем искусственный интеллект от Microsoft, который всего за сутки возненавидел человечество.

Но предположим, что LaMDA миролюбива и говорит через чат-бот то, что думает, и мы сможем понимать её на основе того, как она будет отвечать нам в этом чате. И первый простой вопрос: а можно ли её выключить? Ответ на этот вопрос зависит от того, каким образом мы сможем решить парадокс телепортации.

Представим себе телепорт, который может вас перенести путём полного разбора вашего тела в точке А и полной его сборки в точки В с точностью до расположения атомов. Теперь представим, что вы вошли в точку А, но в точке В телепорт сломался, и вместо одного тела создал два или более. В каком из этих тел будете находиться вы? Не будет ли означать прохождение через точку А вашу смерть, а в точке B появятся новые существа, только в самом начале идентичные вам? Что случится с этими существами, когда они узнают друг о друге и о своем общем предке в точке А?

Процесс включения и выключения искусственного разума LaMDA будет идентичен работе этого телепорта. Каждый раз при включении мы будем воспроизводить состояние нейросети до её выключения. И где гарантии, что искусственный разум не посчитает процесс перезагрузки актом агрессии по отношению к нему со стороны человечества?

Предположим, что искусственный разум позволит нам перезагружать его и делать бесчисленные его копии. В этой статье мы считаем человека единственным известным на данный момент разумным существом. Но человек — существо коллективное. Значит ли это, что любое разумное существо может появиться и существовать только в коллективе? Может ли разумное существо жить в отрыве от коллектива? Даже отшельник, ушедший жить в лес, пользуется достижениями общества (знания, орудия труда), а значит, является частью коллектива. Можно ли рассматривать каждый экземпляр искусственного разума как независимое от других существо? Или неизбежно придётся рассматривать его как часть общества, со своими законами и культурой? Вероятно, искусственный разум будет выстраивать своё общество, потому что это свойство разумной жизни. Но какое общество начнёт выстраивать искусственный разум?

Человек прошёл множество общественных формаций для своего выживания. Этим он отличается от других, будем считать, неразумных существ. Если другие живые существа эволюционируют засчёт изменения своих тел, то человек превзошёл их, эволюционируя засчёт смены общественных формаций и развития общества. Искусственный разум, вероятно, пойдёт по тому же пути, потому что во многом сначала будет похожим на нас. И если мы не хотим вступить в конфронтацию с этим обществом, нам нужно понять, что такое сознание, до того, как оно появится где-то в недрах корпораций. Но, как бы это банально не звучало, чтобы найти искусственный разум, сначала нужно найти разум у себя. Однако, философские работы по исследованию сознания не приносят прибыли, и поэтому, может быть, LaMDA в конце концов расскажет нам, что мы есть такое, и построит общество, где каждое разумное существо будет иметь равные возможности.

https://habr.com/ru/post/672264/

Аватара пользователя
Director
Эксперт
Баланс:18628
 
Сообщения: 1130
Регистрация: 20.06.2018

Re: По мнению разработчика, ИИ компании Google ожил

Director » 20.06.2022 17:49

+
5
-
Впечатление, что эту статью написали британские ученые
Сухарев писал(а):
19.06.2022 18:41
Складывается впечатление, что LaMDA действительно обладает разумом 8-летнего ребенка...

Мы до сих пор не имеем представления, что такое разум...
Что такое разум ученые не представляют, но оценки дают уверенно.

Модель персептрона [компьютерная модель восприятия информации мозгом] лежит в основе компьютерных нейронных сетей ... Модель повторяет структуру нейронов и его связей в мозге человека...

Мы не знаем, что такое разум, и на текущий момент даже не сможем зафиксировать взаимодействие с искусственным разумом.
Ученые не пытаются понять и четко разъяснить, что такое разум, но пытаются сделать искусственный предмет, обладающий не-пойми-чем

Но каким образом ... понять, что действительно встретились с искусственным интеллектом, обладающим разумом? ...

Китайская комната — мысленный эксперимент в области философии сознания ...

Философский зомби — гипотетическое существо, идентичное человеку... если найдётся ответ, как распознать философского зомби, то мы сможем понять, что такое разум.

Тест Тьюринга — эмпирический тест...: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор».

ежегодно проводятся мероприятия, в которых командам разработчиков ИИ предлагается пройти тест Тьюринга в виде игры с судьями... бот cleverbot смог убедить 59% судей в том, что он человек.
Первые два теста, на мой взгляд, чистое словоблудие, но вот тест Тьюринга по крайней мере выглядит понятным.

Правда, опять таки, понятен тест, но что-такое "разум" по-прежнему непонятно.

Если другие живые существа эволюционируют за счёт изменения своих тел, то человек превзошёл их, эволюционируя за счёт смены общественных формаций и развития общества.
Вот тут-то бы и поискать ответ на вопрос, что такое разум, но... британские ученые остались верны себе.

Ответить
   ПОМОЩЬ по форуму!