Sep. 4th, 2016

olegchagin: (Default)
olegchagin: (Default)
At an awards ceremony for Facebook’s chief, Mark Zuckerberg, in February. Researchers from his company, along with Amazon, IBM and others, have been meeting to discuss the impact of artificial intelligence on jobs, transportation and even warfare.

SAN FRANCISCO — For years, science-fiction moviemakers have been making us fear the bad things that artificially intelligent machines might do to their human creators. But for the next decade or two, our biggest concern is more likely to be that robots will take away our jobs or bump into us on the highway.

Now five of the world’s largest tech companies are trying to create a standard of ethics around the creation of artificial intelligence. While science fiction has focused on the existential threat of A.I. to humans, researchers at Google’s parent company, Alphabet, and those from Amazon, Facebook, IBM and Microsoft have been meeting to discuss more tangible issues, such as the impact of A.I. on jobs, transportation and even warfare.

Tech companies have long overpromised what artificially intelligent machines can do. In recent years, however, the A.I. field has made rapid advances in a range of areas, from self-driving cars and machines that understand speech, like Amazon’s Echo device, to a new generation of weapons systems that threaten to automate combat.

The specifics of what the industry group will do or say — even its name — have yet to be hashed out. But the basic intention is clear: to ensure that A.I. research is focused on benefiting people, not hurting them, according to four people involved in the creation of the industry partnership who are not authorized to speak about it publicly.

The importance of the industry effort is underscored in a report issued on Thursday by a Stanford University group funded by Eric Horvitz, a Microsoft researcher who is one of the executives in the industry discussions. The Stanford project, called the One Hundred Year Study on Artificial Intelligence, lays out a plan to produce a detailed report on the impact of A.I. on society every five years for the next century.

Continue reading the main story
One main concern for people in the tech industry would be if regulators jumped in to create rules around their A.I. work. So they are trying to create a framework for a self-policing organization, though it is not clear yet how that will function.

“We’re not saying that there should be no regulation,” said Peter Stone, a computer scientist at the University of Texas at Austin and one of the authors of the Stanford report. “We’re saying that there is a right way and a wrong way.”

While the tech industry is known for being competitive, there have been instances when companies have worked together when it was in their best interests. In the 1990s, for example, tech companies agreed on a standard method for encrypting e-commerce transactions, laying the groundwork for two decades of growth in internet business.

The authors of the Stanford report, which is titled “Artificial Intelligence and Life in 2030,” argue that it will be impossible to regulate A.I. “The study panel’s consensus is that attempts to regulate A.I. in general would be misguided, since there is no clear definition of A.I. (it isn’t any one thing), and the risks and considerations are very different in different domains,” the report says.

One recommendation in the report is to raise the awareness of and expertise about artificial intelligence at all levels of government, Dr. Stone said. It also calls for increased public and private spending on A.I.

“There is a role for government and we respect that,” said David Kenny, general manager for IBM’s Watson artificial intelligence division. The challenge, he said, is “a lot of times policies lag the technologies.”

A memorandum is being circulated among the five companies with a tentative plan to announce the new organization in the middle of September. One of the unresolved issues is that Google DeepMind, an Alphabet subsidiary, has asked to participate separately, according to a person involved in the negotiations.

The A.I. industry group is modeled on a similar human rights effort known as the Global Network Initiative, in which corporations and nongovernmental organizations are focused on freedom of expression and privacy rights, according to someone briefed by the industry organizers but not authorized to speak about it publicly.

Continue reading the main story
Separately, Reid Hoffman, a founder of LinkedIn who has a background in artificial intelligence, is in discussions with the Massachusetts Institute of Technology Media Lab to fund a project exploring the social and economic effects of artificial intelligence.

Both the M.I.T. effort and the industry partnership are trying to link technology advances more closely to social and economic policy issues. The M.I.T. group has been discussing the idea of designing new A.I. and robotic systems with “society in the loop.”

The phrase is a reference to the long-running debate about designing computer and robotic systems that still require interaction with humans. For example, the Pentagon has recently begun articulating a military strategy that calls for using A.I. in which humans continue to control killing decisions, rather than delegating that responsibility to machines.

“The key thing that I would point out is computer scientists have not been good at interacting with the social scientists and the philosophers,” said Joichi Ito, the director of the MIT Media Lab and a member of the board of directors of The New York Times. “What we want to do is support and reinforce the social scientists who are doing research which will play a role in setting policies.”

The Stanford report attempts to define the issues that citizens of a typical North American city will face in computers and robotic systems that mimic human capabilities. The authors explore eight aspects of modern life, including health care, education, entertainment and employment, but specifically do not look at the issue of warfare. They said that military A.I. applications were outside their current scope and expertise, but they did not rule out focusing on weapons in the future.

The report also does not consider the belief of some computer specialists about the possibility of a “singularity” that might lead to machines that are more intelligent and possibly threaten humans.

“It was a conscious decision not to give credence to this in the report,” Dr. Stone said.
olegchagin: (Default)
Статья американского лингвиста Ноама Хомского...

1. Отвлечение внимания.
Базовым элементом социального контроля является стратегия отвлечения. Цель — отвлечь внимание общественности от важных вопросов, решаемых политическими и экономическими элитами, с помощью технологии «наводнения» или «затопления» непрерывными отвлечением и незначительной информацией.
Стратегия отвлечения важна, чтобы не дать гражданам возможности получать важные знания в области науки, экономики, психологии, нейробиологии и кибернетики. «Постоянно отвлекайте внимание граждан от настоящих социальных проблем, держа их в плену вопросов, не имеющих реального значения. Общество должно быть занятым, занятым и занятым, оно никогда не должно думать: прямо с поля — в загон, к другим животным» («Тихое оружие для спокойных войн»).

2. Создать проблему — предложить решение.
Этот метод также называют «проблема-реакция-решение». Создается проблема, «ситуация», вызывающая определенную реакцию общественности — чтобы люди сами начали желать ее решения. Например, допустить рост насилия в городах или организовать кровавые теракты для того, чтобы граждане потребовали принятия законов об усилении мер безопасности и проведения политики, ограничивающей гражданские свободы. Или инициировать экономический кризис, чтобы принять как необходимое зло ограничение гражданских прав и демонтаж государственных органов.

3. Стратегия постепенности.
Чтобы внедрить непопулярные решения, нужно просто применять их постепенно, капля за каплей, годами. Именно так были навязаны принципиально новые социально-экономические условия (неолиберализм) в 80-х и 90-х годах: ограничение роли государства, приватизация, ненадежность, гибкость, массовая безработица, заработная плата, которая уже не обеспечивает достойную жизнь. То есть все те, изменения, которые при одновременном внедрении вызвали бы революцию.

4. Стратегия откладывания.
Еще один способ принять непопулярные решения, это представить их как «болезненные и необходимые» и добиться в данный момент согласия граждан на их осуществление в будущем. Гораздо проще воспринять любые жертвы в будущем, чем в настоящем. Во-первых, потому что это не произойдет немедленно. Во-вторых, потому что народ в массе всегда склонен питать наивные надежды на то, что «завтра все изменится к лучшему», и что те жертв, которых от него требуют, удастся избежать. Это предоставляет гражданам больше времени, чтобы привыкнуть к мысли об изменениях и смиренно принять их, когда придет время.

5. Сюсюканье с народом.
Большинство рекламы, которая направлена на широкую публику, пользуется языком, аргументами, символами и, особенно, интонациями, рассчитанными на детей. Будто зритель очень маленький ребенок или имеет умственную недоразвитость. Чем сильнее ты хочешь обмануть, тем инфантильнее должен быть тон общения. Почему? «Если вы обращаетесь к адресату, будто ему 12 лет или менее, то согласно законам восприятия есть вероятность, что он будет отвечать или реагировать некритично — как ребенок» («Тихое оружие для спокойных войн»).

6. Больше эмоций, чем размышлений.
Использование эмоционального аспекта — это классическая технология для блокирования рационального анализа и критического восприятия индивидуумов. Кроме того, использование эмоционального фактора позволяет открыть дверь в подсознательное, чтобы доставлять туда мысли, желания, страхи, опасения, принуждение или нужные модели поведения ...

7. Держать людей в невежестве и посредственности.
Создание зависимого общества, неспособного к пониманию технологий и методы социального контроля и угнетения. «Качество образования, предоставляемого низшим общественным классам, должно быть как можно скуднее и посредственнее, чтобы разрыв невежества между низшими и высшими социальными классами оставался и его невозможно было преодолеть» («Тихое оружие для спокойных войн»).

8. Побуждать массы увлекаться посредственностью.
Внедрять в массы мысль, что модно быть тупым, пошлым и невоспитанным...

9. Усиливать чувство вины.
Сделать так, чтобы индивидуумы считали, что они сами виноваты в своих бедах и неудачах из-за недостатка интеллекта, способностей, или усилий. Таким образом, вместо того, чтобы восстать против существующей системы, индивидуумы чувствуют себя беспомощными, занимаются самоедством. Это приводит к депрессивному состоянию, эффективно способствует сдерживанию действий человека. А без действий нет и революции!

10. Знать о людях больше, чем они о себе.
В течение последних 50 лет научные достижения привели к стремительному росту разрыва в знаниях между основной массой общества и теми, кто принадлежит к правящим элитам или используется ими. Благодаря биологии, нейробиологии и прикладной психологии, «система» пользуется передовыми знаниями о человеческом существе, то физически или психологически. «Система» способна лучше понимать обычного человека, чем человек знает себя. Это означает, что в большинстве случаев, «система» имеет больше контроля и больше власти над индивидуумами, чем индивидуумы над собой.


olegchagin: (Default)

January 2017

1234 567

Style Credit

Expand Cut Tags

No cut tags
Page generated Sep. 19th, 2017 08:57 pm
Powered by Dreamwidth Studios