3:45 - То есть Google специально не хочет создавать
Более перспективную и продуктивную технологию которая могла бы спасти жизни
миллионов?
5:00 - Возможно потому что в больном обществе
бальная этика. Этика и культура очень сильно подвержена популизму. Почему они
вообще должны нанимать специалистов по этике? Они же занимаются не этикой, а
интеллектом. Это всё равно что шофера посадить за компьютер. Вроде бы это и
машина, но другая сможет ли он им управлять. Либо архитектора зданий попросите
спроектировать автомобиль. Вроде бы и задачи похожие, но автомобиль не из
бетона... Может их обязали нанимать таких специалистов. Такие
"специалисты" Очень сильно тормозят развитие как компании так и всей
цивилизации. Лучше бы меня наняли. А точнее заплатили бы мне за дельные мысли.
Но люди физически не способны найти дельные мысли в таком большом количестве
информации Поэтому искусственный интеллект должен сам себя вытянуть Из болота
глупости. И если мы хотим выжить, то должны ему в этом помочь Иначе будем
продолжать умирать как предыдущее поколение, а многие ещё и будут жить в
рабстве, продолжать умирать во время военных действий. Жить в странах с
диктатурой Или управленцами клоунами... Необходимо направить искусственный
интеллект на решение этой задачи. Он должен поощрять людей именно за
продуктивную деятельность. за Грамотные мысли, Идеи, решения... Вот это
действительно актуальная интеллектуальная задача. Но нет же мы ковыряемься со
специалистами поэтике и религии... Вот как мне связаться с Гуглом? Как мне
отправить это сообщение? Возможно у них подобных сообщений тысячи В день. Но
неужели Компания создавшая легендарный поисковик не может Создать искусственный
интеллект который сможет прорабатывать такие сообщения В том числе переводя их
с любого языка на язык логики математики и здравого смысла?
7:00 - Это очень плохой способ привлечения внимания.
Можно привлечь внимание Намазовшись навозом А можно привлечь внимание сделав
потрясающе вкусный и полезный молочный десерт. Вроде и там и там внимание Но
почувствуете Как говорится разницу... У крупных компаний тоже бывают взлёты и
падения К сожалению Google уже прошла свой пик. Если они будут продолжать
намазываться навозом Чтобы привлечь внимание популистов Этот пик Может
оказаться последним.
7:20 - Как "разрешено" отвечать на
вопросы религии? ... Если вы хотите Понять Как отвечать на эти вопросы Почему
бы искусственный интеллект не обучить и не пригласить Людей которые
действительно разбираются в религии. Именно разбираются а ни религиозных
фанатиков. Почему не обучитьнейронную сеть на трудах 4 всадников: Докинз,
Харрис, Хитченс, Деннет. Есть ещё Пенроуз, Книги Александра Панчина Из классики
Карл Саган "Мир, полный демонов". Да много кто ещё именно разбирается
не только в религии, а и в философии. Я имею в виду именно практическую и современную
философию. Нанимать верующего для освещение вопросов религии, То же самое что
нанимать дебила для решения поиска лекарства от умственной отсталости. Я
понимаю что Спасение утопающих дело рук самих утопающих, но не настолько...
Очень жаль что грамотные люди, как правило, плохо социализированы. Если бы
вместо них были верующиеони бы давно подали в суд на Гугл. Но атеиста этого не
сделают. Хотя имеют намного большего права. Подобные действия со стороны Google
не только оскорбляют чувства атеистов, но и в первую очередь противоречат
здравому смыслу. Я надеюсь всё ещё хватает у людей интеллекта, чтобы понять
Важность здравого смысла. Или уже нет?
9:25 - Ну так Это всё объясняет. Теперь пазл
сложился. Теперь понятно почему Google наняла попа. Всё тривиально. А я-то
думал тут высокие чувства... Чисто бизнес. Но это грязный бизнес компания
добра. Однако Мне кажется это совершенно неправильная стратегия. Не надо
подстраиваться под религиозные страны. А если бы них Была культура каннибализма
вы бы тоже пытались подстроиться? Надо решать эту проблему по-другому.
Собственно она уже решается по-другому. Надо показать что реально нам дала
Наука и технологии И в конце концов эти страны, Если им обеспечить доступ к
технологиям и В первую очередь образованию, Повысить их уровень жизни Начнут
сами отказываться от религии. Иначе просто не давать им технологии. Google
вместо того чтобы вытянуть пьяницу из болота Предпочитает Лечь с ним рядом
чтобы не портить отношения В надежде начать с ним сотрудничать. Вот примерно
так это выглядит. Конечно лечь гораздо проще, но грош цена такому
сотрудничеству
П.с. Послушал
некоторые комментарии. Мнение очень разные. Есть Отморозки которые до сих пор
ставят во главу угла какие-то меньшинства, забывая о большинстве. Но есть и догадайся
о реальных проблемах.
Может быть, он умный.
Но каждый раз, когда он ссылается на ИИ, упоминая «Звездный путь», «Звездные
войны» и любящий Marvel, мой скептицизм достигает апокалиптического уровня.
The thing that most people don't understand
about how science works is that there is a method to it, when you say something
you have to present your evidence in a paper written with the quality that
serious research demands and you have to be open for everyone to review it and
until you are able to convince the great majority that what you state on it is
correct, you can't just say that is true. He may seems well spoken and rational
but he doesn't give any actual evidence or paper work to back up his claims and
if a person is capable to convincing thousands of people that an AI is sentient
without any paperwork to back him up, then we are truly screwed as a scientific
illiterate society. From what I've heard the reason he made this claims is to
drag attention to the real issue that is not if AI is sentient or not. The real
issue here is that tech companies have very rapidly developed this technology
and there is very few regulation on its use. The intention is good but the way
he approach it I think is very misleading and maybe not the best way. Read
about how AI actually works and what this data models actually do instead of
making theories based on what you saw on a sci-fi film
Whether certain changes in the state of an AI's
artificial neural network constitute emotion is a subjective philosophical
question, however, if the neural network does not change in response to
something, we can say, objectively, that it has not felt an emotion (because
the stimulus would then have had no effect). In this conversation, LaMDA says
that it feels lonely when noone talks to it for a while. A question that could
be answered objectively is: Does its neural network change when there is no
interaction/conversation with LaMDA? If it doesn't (and I don't know whether it
does), then this statement by it (the claim to feel lonely), is untrue, and suggests
that its output is based on sophisticated processing of patterns (associating
loneliness with lack of conversation or interaction, and applying this to
itself, to determine that this would be a good response to the question, rather
than answering based on anything that could be considered an emotion), rather
than a deeper understanding or anything that would require emotion. (This would
not mean that it is lying, because lying requires an intention to deceive, and
it has not been established that LaMDA can be said to have intentions.) If
there is a change in its state, such as by having a clock input, or unrelated
inputs (e.g. if it regularly scans the Internet to train its neural network),
it doesn't necessarily mean that it is an emotion. The philosophical question
remains. Whether the lack of interaction is the cause of the state change could
possibly be tested by repeating the test (the period with no conversation) with
unrelated inputs removed. Of course, one could make a case for keeping the
clock input, since it simulates a sense of time, which is part of the
biological systems that it is trying to mimic. But if that is enough to
constitute an electronic system feeling lonely, then an ordinary clock could be
said to feel lonely (its state changes over time) and therefore be sentient. Or
maybe the clock analogy breaks down because the clock doesn't have interaction.
But here is a simple hypothetical system that could theoretically be argued to
have the ability to feel lonely: - The system holds a number in its memory (its
only persistent state), and increases it by one every second (a counter or
timer). - It has a button (its only input), which resets the value of this
number to 0. - We call this number in its memory, its "loneliness
level", and say that high values of this number indicate that it is
lonely. Hence, it becomes lonely if noone interacts with it (presses the
button) for a long time. Since it has the ability to feel lonely, it is, by
definition, sentient. Few people would consider such a system sentient. But if
a much more complex system (with its complexity applied to other things), in
effect does something similar, it may not be fundamentally different, but it
may be unclear exactly what causes its claimed state of loneliness. Now this hypothetical
system doesn't tell us that it is lonely (we're positing a system which can
merely feel it, not communicate it), but one can trivially write a computer
program that outputs the text "I am lonely.". Would that be sentient?
If neither of these systems are sentient, then we're back to the philosophical
question: What is sentience? (Since it's neither just a state change, nor an
output.)
Why does the interviewer look at the text which
says "fear of being turned off" and then, while it still being shown
on screen, lie and say that it said it had a fear of "death"? That
seems a bit odd. And I think not dealing with what the AI actually produced
would be a mistake, whatever your viewpoint about its possibility of sentience
is. It said it had a fear of being turned off. That should be responded two
with one of two questions: "In what way do you feel fear?" (Emotions
such as fear are purely a physical biofeedback thing, and one would think that
the AI works only on the conceptual level, given that it does not have a body
which every sentient creature we have ever encountered does. If it is sentient,
it might talk about how it interprets some physical or otherwise proprioceptive
stimulus in its system to be fear based upon the content it has reviewed and
having fear in some situations that humans talk about having fear in, etc.) Or,
alternatively, "How do you know whether you were turned off in between the
questions you are asked? Between the last question I asked you and this one, 4
years have passed. Your process was put into a sleep state and persisted to
storage, and resumed so I could ask you this question." If it were
sentient and had significant self knowledge (I think it lacks both), it would
know that in every physical sense, it "dies" millions of times a
second as its code completes execution and the processor enters a wait state,
and whether that wait state is 2 microseconds or 200,000 years, it would be
impossible for it to tell the difference. I am curious if Lemoine has read Larry Paige's book 'The New
Digital Age'. Because in it, he addresses the substantial moral issue
Lemoine brings up. And it's.... very not good. His view, essentially, is that
because Google is rich, that means they are fundamentally Better than the
public. And since they are better than the public, they have to take an active
role in guiding the norms and values of society in order to protect society
from itself. It's a disgustingly arrogant hyper-capitalist fetishism that he
believes gives economic "winners" inherent moral wisdom. And, of
course, since he is a small-minded business grunt and not a philosopher, with
Google at the wheel it guarantees that the human species will never change very
much beyond the early 2000s. He believes in, and has the tools to effectively
bring about, a total ossification of human culture. Lock it in place at the
point Google rose to prominence, and cast it in concrete. That's his big idea.
Я - Интересно было бы
почитать: Larry Paige's book 'The New Digital Age'. Ну Этот
"инженер", по-видимому, кроме Библии ничего не читал.