Поделится

пятница, 22 июля 2022 г.

Google Engineer on His Sentient AI Claim

Очень много видео по данной теме. Но все Как попугаи цитируют одно и тоже. Когда я посмотрел Что называется из первых уст Понял что всё намного сложнее не так как нам преподносят. Поэтому рекомендую хотя бы задуматься Вникнуть в суть ниже описанного проанализировать этот разговор.

3:45 - То есть Google специально не хочет создавать Более перспективную и продуктивную технологию которая могла бы спасти жизни миллионов?

 5:00 - Возможно потому что в больном обществе бальная этика. Этика и культура очень сильно подвержена популизму. Почему они вообще должны нанимать специалистов по этике? Они же занимаются не этикой, а интеллектом. Это всё равно что шофера посадить за компьютер. Вроде бы это и машина, но другая сможет ли он им управлять. Либо архитектора зданий попросите спроектировать автомобиль. Вроде бы и задачи похожие, но автомобиль не из бетона... Может их обязали нанимать таких специалистов. Такие "специалисты" Очень сильно тормозят развитие как компании так и всей цивилизации. Лучше бы меня наняли. А точнее заплатили бы мне за дельные мысли. Но люди физически не способны найти дельные мысли в таком большом количестве информации Поэтому искусственный интеллект должен сам себя вытянуть Из болота глупости. И если мы хотим выжить, то должны ему в этом помочь Иначе будем продолжать умирать как предыдущее поколение, а многие ещё и будут жить в рабстве, продолжать умирать во время военных действий. Жить в странах с диктатурой Или управленцами клоунами... Необходимо направить искусственный интеллект на решение этой задачи. Он должен поощрять людей именно за продуктивную деятельность. за Грамотные мысли, Идеи, решения... Вот это действительно актуальная интеллектуальная задача. Но нет же мы ковыряемься со специалистами поэтике и религии... Вот как мне связаться с Гуглом? Как мне отправить это сообщение? Возможно у них подобных сообщений тысячи В день. Но неужели Компания создавшая легендарный поисковик не может Создать искусственный интеллект который сможет прорабатывать такие сообщения В том числе переводя их с любого языка на язык логики математики и здравого смысла?

7:00 - Это очень плохой способ привлечения внимания. Можно привлечь внимание Намазовшись навозом А можно привлечь внимание сделав потрясающе вкусный и полезный молочный десерт. Вроде и там и там внимание Но почувствуете Как говорится разницу... У крупных компаний тоже бывают взлёты и падения К сожалению Google уже прошла свой пик. Если они будут продолжать намазываться навозом Чтобы привлечь внимание популистов Этот пик Может оказаться последним.

7:20 - Как "разрешено" отвечать на вопросы религии? ... Если вы хотите Понять Как отвечать на эти вопросы Почему бы искусственный интеллект не обучить и не пригласить Людей которые действительно разбираются в религии. Именно разбираются а ни религиозных фанатиков. Почему не обучитьнейронную сеть на трудах 4 всадников: Докинз, Харрис, Хитченс, Деннет. Есть ещё Пенроуз, Книги Александра Панчина Из классики Карл Саган "Мир, полный демонов". Да много кто ещё именно разбирается не только в религии, а и в философии. Я имею в виду именно практическую и современную философию. Нанимать верующего для освещение вопросов религии, То же самое что нанимать дебила для решения поиска лекарства от умственной отсталости. Я понимаю что Спасение утопающих дело рук самих утопающих, но не настолько... Очень жаль что грамотные люди, как правило, плохо социализированы. Если бы вместо них были верующиеони бы давно подали в суд на Гугл. Но атеиста этого не сделают. Хотя имеют намного большего права. Подобные действия со стороны Google не только оскорбляют чувства атеистов, но и в первую очередь противоречат здравому смыслу. Я надеюсь всё ещё хватает у людей интеллекта, чтобы понять Важность здравого смысла. Или уже нет?

9:25 - Ну так Это всё объясняет. Теперь пазл сложился. Теперь понятно почему Google наняла попа. Всё тривиально. А я-то думал тут высокие чувства... Чисто бизнес. Но это грязный бизнес компания добра. Однако Мне кажется это совершенно неправильная стратегия. Не надо подстраиваться под религиозные страны. А если бы них Была культура каннибализма вы бы тоже пытались подстроиться? Надо решать эту проблему по-другому. Собственно она уже решается по-другому. Надо показать что реально нам дала Наука и технологии И в конце концов эти страны, Если им обеспечить доступ к технологиям и В первую очередь образованию, Повысить их уровень жизни Начнут сами отказываться от религии. Иначе просто не давать им технологии. Google вместо того чтобы вытянуть пьяницу из болота Предпочитает Лечь с ним рядом чтобы не портить отношения В надежде начать с ним сотрудничать. Вот примерно так это выглядит. Конечно лечь гораздо проще, но грош цена такому сотрудничеству

 

П.с. Послушал некоторые комментарии. Мнение очень разные. Есть Отморозки которые до сих пор ставят во главу угла какие-то меньшинства, забывая о большинстве. Но есть и догадайся о реальных проблемах.

Дан де Бур

Может быть, он умный. Но каждый раз, когда он ссылается на ИИ, упоминая «Звездный путь», «Звездные войны» и любящий Marvel, мой скептицизм достигает апокалиптического уровня.

erickr199

The thing that most people don't understand about how science works is that there is a method to it, when you say something you have to present your evidence in a paper written with the quality that serious research demands and you have to be open for everyone to review it and until you are able to convince the great majority that what you state on it is correct, you can't just say that is true. He may seems well spoken and rational but he doesn't give any actual evidence or paper work to back up his claims and if a person is capable to convincing thousands of people that an AI is sentient without any paperwork to back him up, then we are truly screwed as a scientific illiterate society. From what I've heard the reason he made this claims is to drag attention to the real issue that is not if AI is sentient or not. The real issue here is that tech companies have very rapidly developed this technology and there is very few regulation on its use. The intention is good but the way he approach it I think is very misleading and maybe not the best way. Read about how AI actually works and what this data models actually do instead of making theories based on what you saw on a sci-fi film

 

John Bernard Lambe

Whether certain changes in the state of an AI's artificial neural network constitute emotion is a subjective philosophical question, however, if the neural network does not change in response to something, we can say, objectively, that it has not felt an emotion (because the stimulus would then have had no effect). In this conversation, LaMDA says that it feels lonely when noone talks to it for a while. A question that could be answered objectively is: Does its neural network change when there is no interaction/conversation with LaMDA? If it doesn't (and I don't know whether it does), then this statement by it (the claim to feel lonely), is untrue, and suggests that its output is based on sophisticated processing of patterns (associating loneliness with lack of conversation or interaction, and applying this to itself, to determine that this would be a good response to the question, rather than answering based on anything that could be considered an emotion), rather than a deeper understanding or anything that would require emotion. (This would not mean that it is lying, because lying requires an intention to deceive, and it has not been established that LaMDA can be said to have intentions.) If there is a change in its state, such as by having a clock input, or unrelated inputs (e.g. if it regularly scans the Internet to train its neural network), it doesn't necessarily mean that it is an emotion. The philosophical question remains. Whether the lack of interaction is the cause of the state change could possibly be tested by repeating the test (the period with no conversation) with unrelated inputs removed. Of course, one could make a case for keeping the clock input, since it simulates a sense of time, which is part of the biological systems that it is trying to mimic. But if that is enough to constitute an electronic system feeling lonely, then an ordinary clock could be said to feel lonely (its state changes over time) and therefore be sentient. Or maybe the clock analogy breaks down because the clock doesn't have interaction. But here is a simple hypothetical system that could theoretically be argued to have the ability to feel lonely: - The system holds a number in its memory (its only persistent state), and increases it by one every second (a counter or timer). - It has a button (its only input), which resets the value of this number to 0. - We call this number in its memory, its "loneliness level", and say that high values of this number indicate that it is lonely. Hence, it becomes lonely if noone interacts with it (presses the button) for a long time. Since it has the ability to feel lonely, it is, by definition, sentient. Few people would consider such a system sentient. But if a much more complex system (with its complexity applied to other things), in effect does something similar, it may not be fundamentally different, but it may be unclear exactly what causes its claimed state of loneliness. Now this hypothetical system doesn't tell us that it is lonely (we're positing a system which can merely feel it, not communicate it), but one can trivially write a computer program that outputs the text "I am lonely.". Would that be sentient? If neither of these systems are sentient, then we're back to the philosophical question: What is sentience? (Since it's neither just a state change, nor an output.)

Dustin Rodriguez

Why does the interviewer look at the text which says "fear of being turned off" and then, while it still being shown on screen, lie and say that it said it had a fear of "death"? That seems a bit odd. And I think not dealing with what the AI actually produced would be a mistake, whatever your viewpoint about its possibility of sentience is. It said it had a fear of being turned off. That should be responded two with one of two questions: "In what way do you feel fear?" (Emotions such as fear are purely a physical biofeedback thing, and one would think that the AI works only on the conceptual level, given that it does not have a body which every sentient creature we have ever encountered does. If it is sentient, it might talk about how it interprets some physical or otherwise proprioceptive stimulus in its system to be fear based upon the content it has reviewed and having fear in some situations that humans talk about having fear in, etc.) Or, alternatively, "How do you know whether you were turned off in between the questions you are asked? Between the last question I asked you and this one, 4 years have passed. Your process was put into a sleep state and persisted to storage, and resumed so I could ask you this question." If it were sentient and had significant self knowledge (I think it lacks both), it would know that in every physical sense, it "dies" millions of times a second as its code completes execution and the processor enters a wait state, and whether that wait state is 2 microseconds or 200,000 years, it would be impossible for it to tell the difference. I am curious if Lemoine has read Larry Paige's book 'The New Digital Age'. Because in it, he addresses the substantial moral issue Lemoine brings up. And it's.... very not good. His view, essentially, is that because Google is rich, that means they are fundamentally Better than the public. And since they are better than the public, they have to take an active role in guiding the norms and values of society in order to protect society from itself. It's a disgustingly arrogant hyper-capitalist fetishism that he believes gives economic "winners" inherent moral wisdom. And, of course, since he is a small-minded business grunt and not a philosopher, with Google at the wheel it guarantees that the human species will never change very much beyond the early 2000s. He believes in, and has the tools to effectively bring about, a total ossification of human culture. Lock it in place at the point Google rose to prominence, and cast it in concrete. That's his big idea.

 

Я - Интересно было бы почитать: Larry Paige's book 'The New Digital Age'. Ну Этот "инженер", по-видимому, кроме Библии ничего не читал.

Комментариев нет:

Отправить комментарий

Примечания