Январь 2010 Февраль 2010 Март 2010 Апрель 2010 Май 2010
Июнь 2010
Июль 2010 Август 2010
Сентябрь 2010
Октябрь 2010
Ноябрь 2010
Декабрь 2010
Январь 2011
Февраль 2011 Март 2011 Апрель 2011 Май 2011 Июнь 2011 Июль 2011 Август 2011
Сентябрь 2011
Октябрь 2011 Ноябрь 2011 Декабрь 2011 Январь 2012 Февраль 2012 Март 2012 Апрель 2012 Май 2012 Июнь 2012 Июль 2012 Август 2012 Сентябрь 2012 Октябрь 2012 Ноябрь 2012 Декабрь 2012 Январь 2013 Февраль 2013 Март 2013 Апрель 2013 Май 2013 Июнь 2013 Июль 2013 Август 2013 Сентябрь 2013 Октябрь 2013 Ноябрь 2013 Декабрь 2013 Январь 2014 Февраль 2014
Март 2014
Апрель 2014 Май 2014 Июнь 2014 Июль 2014 Август 2014 Сентябрь 2014 Октябрь 2014 Ноябрь 2014 Декабрь 2014 Январь 2015 Февраль 2015 Март 2015 Апрель 2015 Май 2015 Июнь 2015 Июль 2015 Август 2015 Сентябрь 2015 Октябрь 2015 Ноябрь 2015 Декабрь 2015 Январь 2016 Февраль 2016 Март 2016 Апрель 2016 Май 2016 Июнь 2016 Июль 2016 Август 2016 Сентябрь 2016 Октябрь 2016 Ноябрь 2016 Декабрь 2016 Январь 2017 Февраль 2017 Март 2017 Апрель 2017 Май 2017
Июнь 2017
Июль 2017
Август 2017 Сентябрь 2017 Октябрь 2017 Ноябрь 2017 Декабрь 2017 Январь 2018 Февраль 2018 Март 2018 Апрель 2018 Май 2018 Июнь 2018 Июль 2018 Август 2018 Сентябрь 2018 Октябрь 2018 Ноябрь 2018 Декабрь 2018 Январь 2019
Февраль 2019
Март 2019 Апрель 2019 Май 2019 Июнь 2019 Июль 2019 Август 2019 Сентябрь 2019 Октябрь 2019 Ноябрь 2019 Декабрь 2019 Январь 2020
Февраль 2020
Март 2020 Апрель 2020 Май 2020 Июнь 2020 Июль 2020 Август 2020 Сентябрь 2020 Октябрь 2020 Ноябрь 2020 Декабрь 2020 Январь 2021 Февраль 2021 Март 2021 Апрель 2021 Май 2021 Июнь 2021 Июль 2021 Август 2021 Сентябрь 2021 Октябрь 2021 Ноябрь 2021 Декабрь 2021 Январь 2022 Февраль 2022 Март 2022 Апрель 2022 Май 2022 Июнь 2022 Июль 2022 Август 2022 Сентябрь 2022 Октябрь 2022 Ноябрь 2022 Декабрь 2022 Январь 2023 Февраль 2023 Март 2023 Апрель 2023 Май 2023 Июнь 2023 Июль 2023 Август 2023 Сентябрь 2023 Октябрь 2023 Ноябрь 2023 Декабрь 2023 Январь 2024 Февраль 2024 Март 2024 Апрель 2024
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23
24
25
26
27
28
29
30
Game News |

That Musk-signed open letter calling for a pause on AI development is getting blasted by the very researchers it cites

 That Musk-signed open letter calling for a pause on AI development is getting blasted by the very researchers it cites

Earlier this week, we reported on the open letter from the Future of Life Institute (FLI) calling for a six-month pause on training AI systems "more powerful" than the recently released Chat GPT-4. The letter was signed by the likes of Elon Musk, Steve Wozniak, and Stability AI founder Emad Mostaque. The Guardian reports, however, that the letter is facing harsh criticism from the very sources it cites.

"On the Dangers of Stochastic Parrots" is an influential paper criticizing the environmental costs and inherent biases of large language models like Chat GPT, and the paper is one of the primary sources cited by this past week's open letter. Co-author Margaret Mitchell, who previously headed up ethical AI research at Google, told Reuters that, "By treating a lot of questionable ideas as a given, the letter asserts a set of priorities and a narrative on AI that benefits the supporters of FLI.” 

Mitchell continues, “Ignoring active harms right now is a privilege that some of us don’t have."

University of Connecticut assistant professor Shiri Dori-Hacohen, whose work was also cited by the FLI letter, had similarly harsh words. "AI does not need to reach human-level intelligence to exacerbate those risks," she said to Reuters, referring to existential challenges like climate change, further adding that, "There are non-existential risks that are really, really important, but don’t receive the same kind of Hollywood-level attention."

The Future of Life Institute received €3,531,696 ($4,177,996 at the time) in funding from the Musk Foundation in 2021, its largest listed donor. Elon Musk himself, meanwhile, co-founded Chat GPT creator Open AI before leaving the company on poor terms in 2018 as reported by Forbes. A report from Vice notes that several signatories to the FLI letter have turned out to be fake,  including Meta's chief AI scientist, Yann LeCun and, ah, Chinese President Xi Jinping? FLI has since introduced a process to verify each new signatory.

On March 31, the authors of "On the Dangers of Stochastic Parrots," including Mitchell, linguistics professor Emlily M. Bender, computer scientist Timni Gebru, and linguist Angelina McMillan-Major, issued a formal response to the FLI open letter via ethical AI research institute DAIR. "The harms from so-called AI are real and present and follow from the acts of people and corporations deploying automated systems," the letter's summary reads. "Regulatory efforts should focus on transparency, accountability and preventing exploitative labor practices."

The researchers acknowledge some measures proposed by the FLI letter that they agree with, but state that "these are overshadowed by fearmongering and AI hype, which steers the discourse to the risks of imagined 'powerful digital minds' with 'human-competitive intelligence.'" the more immediate and pressing dangers of AI technology, they argue, are:

The Stochastic Parrot authors point out that the FLI subscribes to the "longtermist" philosophical school that's become extremely popular among Silicon Valley luminaries in recent years, an ideology that prizes the wellbeing of theoretical far-future humans (trillions of them, supposedly) over the actually extant people of today.

You may be familiar with the term from the ongoing saga of collapsed crypto exchange FTC and its disgraced leader, Sam Bankman-Fried, who was outspoken in his advocacy of "effective altruism" for future humans who will have to deal with the Singularity and the like. Why worry about climate change and the global food supply when we have to ensure that the Dyson Spheres of 5402 AD don't face a nanobot "Grey Goo" apocalypse scenario!

The Stochastic Parrot authors effectively sum up their case close to the end of the letter: "Contrary to the [FLI letter's] narrative that we must 'adapt' to a seemingly pre-determined technological future and cope 'with the dramatic economic and political disruptions (especially to democracy) that AI will cause,' we do not agree that our role is to adjust to the priorities of a few privileged individuals and what they decide to build and proliferate." 

Instead, the letter writers argue, "We should be building machines that work for us, instead of 'adapting' society to be machine readable and writable. The current race towards ever larger 'AI experiments' is not a preordained path where our only choice is how fast to run, but rather a set of decisions driven by the profit motive."



Читайте также

Fortnite's battle royale mode was cooked up in the back of an Uber in 'like, three hours'

В Китае проводят ЗБТ MMORPG Jade Dynasty 2 — по качеству игра даст фору WoW и Tarisland

Asus adds 'Intel Baseline Profile' to new BIOS files to combat stability issues but the TDP is still higher than Intel's actual baselines




Game24.pro — паблик игровых новостей в календарном формате на основе технологичной новостной информационно-поисковой системы с элементами искусственного интеллекта, гео-отбора и возможностью мгновенной публикации авторского контента в режиме Free Public. Game24.pro — ваши Game News сегодня и сейчас в Вашем городе.

Опубликовать свою новость, реплику, комментарий, анонс и т.д. можно мгновенно — здесь.



Персональные новости

В аэропорту Кишинева несколько часов держали участников съезда "Победа" в Москве

Шапки женские вязаные на Wildberries, 2024 — новый цвет от 392 руб. (модель 466)

Предложения АИРР поддержала комиссия Госсовета

Прояснение причин СВО. План улучшения отношений. И дополнительно: "При чём здесь Ленин?"