Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале 11 стр.


14

Так, даже фирмы, составляющие витрину революции ИИ, в частности Microsoft, утверждают, что их цель «не в том, чтобы заменить людей машинами, а в том, чтобы дополнить человеческие способности безграничной способностью ИИ анализировать огромные объемы данных и находить паттерны, которые в ином случае выявить было бы невозможно». См.: Microsoft, The Future Computed: Artificial Intelligence and Its Role in Society (2018), https://blogs.microsoft.com/wp-content/uploads/2018/o2/ The-Future-Computed_2.8.18.pdf.

15

Kate Crawford and Vladan Joler, Anatomy of an Al System (2018), https://anatomyof.ai/.

16

Information Technology Industry Council (ГП), Al Policy Principles Executive Summary 5 (2017), https://www.itic.org/public-policy/ ITIAIPolicyPrinciplesFINAL.pdf.

17

The Agency for Digital Italy, Artificial Intelligence at the Service of Citizens 37, 54, 62 (2018), https://ia.italia.it/assets/whitepaper.pdf. См. также: Artificial Intelligence Industry Alliance (China), Joint Pledge on Artificial Intelligence Industry Self-Discipline (2019), https://www. newamerica.org/cybersecurity-initiative/digichina/blog/translation-chinese-ai-alliance-drafts-self-discipline-joint-pledge/, где утверждается, что развитие ИИ не должно позволить «искусственному интеллекту ослабить или заменить позицию человека».

18

Frank Pasquale, A Rule of Persons, Not Machines, George Washington Law Review 87, no. 1 (2019): 1-55.

19

Beijing Academy of Al, Beijing Al Principles (2019), https://www. baai.ac.cn/blog/beijing-ai-principles.

20

Daniella K. Citron and Robert Chesney, Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security, California Law Review 107 (2019): 17531819.

21

European Group on Ethics in Science and New Technologies, European Commission, Statement on Artificial Intelligence, Robotics and Autonomous Systems 16 (2018), https://publications.europa.eu/en/publication-detail/-/publication/dfebe62e-4ceg-ne8-beid-oiaa75ed7iai, где цитируется фундаментальный принцип человеческого достоинства. См. также: IEEE, Global Initiative on Ethics of Autonomous and Intelligent Systems, Ethically Aligned Design 39 (1st. ed., 2019), https:// standards.ieee.org/content/ieee-standards/en/industry-connections/ ec/autonomous-systems.html: «Обязанность уважать человеческое достоинство, возможно, потребует определенных ограничений функций и способностей искусственных интеллектов, сузив их возможность заменять людей, человеческие функции и/ или центральную мыслительную деятельность человека, примерами которой являются суждение, рассуждение и оценка Также она, возможно, не позволит ИИ обманывать людей или манипулировать ими».

22

Термин «дети разума» я заимствую у Моравека, хотя у меня совершенно другое представление о будущем робототехники. См.: Hans Moravec, Mind Children: The Future of Robot and Human Intelligence (Cambridge, MA: Harvard University Press, 1990).

23

Даже в подобных случаях можно навязать «бремя самострахования». См.: David С. Viadeck, Machines without Principals: Liability Rules and Artificial Intelligence, Washington Law Review 89, no. 1 (2014): 117, 150.

24

Термин «потенциально ответственные стороны» опирается на документ: Comprehensive Environmental Response, Compensation, and Liability Act, or CERCLA. 42 U.S.C. § 9607(a) (2012), в котором определяются четыре категории сторон, потенциально связанных обязательствами.

25

Helena Horton, Microsoft Deletes Teen Girl Al after It Became a Hitler-Loving Sex Robot, Telegraph, March 24, 2017, https://www.telegraph. co.uk/technology/2016/o3/24/microsofts-teen-girl-ai-turns-into-a-hitler-loving-sex-robot-wit/.

26

Различие между закрытой и открытой робототехникой см. в: M. Ryan Calo, Open Robotics, Maryland Law Review 70 (2011): 571, 583591; Diana Marina Cooper, The Application of a Sufficiently and Selectively Open License to Limit Liability and Ethical Concerns Associated with Open Robotics, in Robot Law, eds. Ryan Calo, A. Michael Froomkin, and Ian Kerr (Cheltenham, UK: Edward Elgar, 2016), 163, 164165.

27

Staff of the US Securities and Exchange Commission and Staff of the US Commodity Futures Trading Commission, Joint Study on the Feasibility of Mandating Algorithmic Descriptions for Derivatives (April 2011), 16, 16П77, 24, https://www.sec.gov/news/studies/2011/719b-study.pdf.

28

John Markoff, The Creature That Lives in Pittsburgh, New York Times, April 21, 1991, http://www.nytimes.com/1991/04/21/business/ the-creature-that-lives-in-pittsburgh.html?pagewanted=all; Rodney Brooks, Flesh and Machines: Ноъо Robots Will Change Us (New York: Pantheon, 2002).

29

См.: Джон Маркофф, Homo Roboticus?Люди и машины в поисках взаимопонимания (Москва: Альпина нон-фикшн, 2017), где описывается первопроходческая работа в области ИИ Дага Энгельбарта и многих его последователей. См. также: Doug Engelbart, Augmenting Human Intellect: A Conceptual Framework (Washington, DC: Air Force Office of Scientific Research, 1962).

30

Marc Andreessen, Why Software Is Eating the World, Wall Street Journal, August 20, 2011, https://www.wsj.com/articles/SB1ooo1424053111903480904576512250915629460..

31

Ryan Calo, Robotics and the Lessons of Cyberlaw, California Law Review 103, no. 3 (2015): 513563.

32

Ian Kerr, Bots, Babes and the Californication of Commerce, Ottawa Law and Technology Journal 1 (2004): 285325.

30

Marc Andreessen, Why Software Is Eating the World, Wall Street Journal, August 20, 2011, https://www.wsj.com/articles/SB1ooo1424053111903480904576512250915629460..

31

Ryan Calo, Robotics and the Lessons of Cyberlaw, California Law Review 103, no. 3 (2015): 513563.

32

Ian Kerr, Bots, Babes and the Californication of Commerce, Ottawa Law and Technology Journal 1 (2004): 285325.

33

Rachel Lerman, Be Wary of Robot Emotions; Simulated Love Is Never Love, Phys.org, April 26, 2019, https://phys.org/news/2019-04-wary-r0b0t-em0ti0ns-simulated.html.

34

Natasha Dow Schull, Addiction by Design: Machine Gambling in Las Vegas (Princeton: Princeton University Press, 2014); Ryan Calo, Digital Market Manipulation, George Washington Law Review 82 (2014): 995; Neil Richards, The Dangers of Surveillance, Harvard Law Review 126 (2019): 1934.

35

Mark Andrejevic, Automating Surveillance, Surveillance and Society 17 (2019): 7.

36

Neil Selwyn, Distrusting Educational Technology: Critical Questions for Changing Times (New York: Routledge, 2014).

37

Laurence H. Tribe, Channeling Technology through Law (Chicago: Bracton, 1973).

38

Deborah G. Johnson, The Role of Ethics in Science and Technology, Cell 29 (2010): 589590; Deborah G.Johnson, Software Agents, Anticipatory Ethics, and Accountability, in The Growing Gap between Emerging Technologies and Legal-Ethical Oversight, eds. Gary E. Marchant, Braden R. Allenby, and Joseph R. Herkert (New York: Spring, 2011), 6176; Ari Ezra Waldman, Privacy as Trust (Oxford: Oxford University Press, 2018).

39

Mary Flanagan and Helen Nissenbaum, Values at Play in Digital Games (Cambridge, MA: MIT Press, 2014).

40

См., например: Ann Cavoukian, Privacy by Design: The 7 Foundational Principles, Office of the Information and Privacy Commissioner of Canada (2009).

41

Дополнительную информацию по вопросам конфиденциальности, возникающим в связи с роботами и предсказательной аналитикой, см. в: Drew Simshaw, Nicolas Terry, Kris Hauser, and M. L. Cummings, Regulating Healthcare Robots: Maximizing Opportunities while Minimizing Risks, Richmond Journal of Law and Technology 27, no. 3 (2016): 1-38, 3. Об интеграции права и принципов проектирования с целью эффективного извещения см.: Ari Ezra Waldman, Privacy, Notice, and Design, Stanford Technology Law Review 21, no. 1 (2018): 129184.

42

Эту стратегию аргументации Хуфнегл называет «карточной колодой отрицателей». См.: Christopher Jay Hoofnagle, The Denialists Deck of Cards: An Illustrated Taxonomy of Rhetoric Used to Frustrate Consumer Protection Efforts, ScienceBlogs, February 9, 2007, https:// scienceblogs.com/denialism/the- denialists- deck- of- cards.

43

Frank Pasquale, Technology, Competition, and Values, Minnesota Journal of Law, Science, and Technology 8 (2007): 607622; Peter Asaro, Jus Nascendi, Robotic Weapons and the Martens Clause, in Robot Law, eds. Ryan Calo, A. Michael Froomkin, and Ian Kerr (Cheltenham, UK: Edward Elgar, 2016), 367386.

44

Frank Pasquale, Technology, Competition, and Values, Minnesota Journal of Law, Science, and Technology 8 (2007): 607622.

45

См., например: Kenneth Anderson and Matthew C. Waxman, Law and Ethics for Autonomous Weapon Systems: Why a Ban Wont Work and How the Laws of War Can, Hoover Institution Stanford University Task Force on XationalSecurity and Law (2013), где дается ответ на кампанию «Остановить роботов-убийц» (Campaign to Stop Killer Robots).

46

P. W. Singer, Wiredfor War: The Robotics Revolution and Conflict in the 21st Century (New York: Penguin, 2009), 435.

47

Ray Kurzweil, The Age of Spiritual Machines (New York: Penguin, 1999).

48

Rebecca Crootof, A Meaningful F100r for Meaningful Human Control, Temple International and Comparative Law Journal 30 (2016): 5362; Paul Scharre, Centaur Warfighting: The False Choice of Humans vs. Automation, Temple International and Comparative Law Journal 30 (2016): 151166.

49

Jeffrey L. Caton, Autonomous Weapon Systems: A Brief Survey of Developmental, Operational, Legal, and Ethical Issues (Carlisle, PA: US Army War College Press, 2015); Liang Qiao and Xiangsui Wang, Unrestricted Warfare: Chinas Master Plan to Destroy America, trans. Al Santoli (Panama City: Pan American Publishing, 2000).

50

Проекты по анализу лиц, упомянутые в этом абзаце, критикуются в работе: Frank Pasquale, When Machine Learning is Facially Invalid, Communications of the ACM 61, no. 9 (2018): 2527.

51

David Castlevecchi, Can We Open the Black Box of Al? Scientific American, October 5, 2016, https://www.scientificamerican.com/ article/can-we-open-the-black-box-of-ai/.

52

Jennifer Kavanagh and Michael D. Rich, Truth Decay: An Initial Exploration of the Diminishing Role of Facts and Analysis in American Public Life, Santa Monica, CA: RAND Corporation, 2018, https://www.rand. org/pubs/research_reports/RR23i4.html; Alice Marwick and Rebecca Lewis, Media Manipulation and Disinformation Online (New York: Data and Society, 2017), https://datasociety.net/pubs/oh/DataAndSocie-ty_MediaManipulationAndDisinformationOnline.pdf.

53

О различии между речью и поведении см., например: Claudia Haupt, Professional Speech, Yale Law Journal 125, no. 5 (2016): 12381303.

54

Как показывает Джил Эйал, экспертные знания вполне могут существовать вне эксперта, не только в виде набора пропозиционально выраженных знаний, но и в качестве институтов. См.: Gil Eyal, The Crisis of Expertise (Medford, MA: Polity Press, 2019).

Назад Дальше