Created
February 5, 2020 21:09
-
-
Save nadvornix/618229d311c57aa2fabc46074066f875 to your computer and use it in GitHub Desktop.
This file contains hidden or bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
| Napsat flipcharty: | |
| - argument (verze z astronomical wate) | |
| - definice od MacAskilla | |
| ---- | |
| úvod: | |
| - Co jsou deep dives. | |
| - neformální | |
| - kdo co četl? Tohle není přednáška ale více diskuse ve které si věci vzájemně ujasníme. | |
| ---- | |
| Co to je Longtermismus? | |
| - zpřesníme a prozkoumáme to, aby tento shluk myšlenek dostali z kategorie "podivuhodná myšlenka co je možná hloupá a možná hrozně důležitá" do "máme to docela rozmyšlené a rozumíme tomu" | |
| - Pozorování: velikost budoucnosti může být astronomicky velká. | |
| 1) Očekávaná velikost budoucí populace je astronomicky veliká. | |
| - je podivuhodné jak brzo v historii jsme. | |
| 2) Jestli 1) tak hodnota v budoucnosti je astronomicky veliká | |
| 3) Tudíž na čem záleží nejvíce je maximalizace tohoto budoucího potenciálu | |
| 4) některé naše akce mají nezanedbatelnou pravděpodobnost zmírnit xrisk [Grafy. Přiblížení budoucnosti. Propočet.] | |
| 5) tudíž co je nejlepší udělat je dominováno tím jak naše akce snížují pravděpodobnost xrisk | |
| Etický framing EA. | |
| Longtermism = filosofická pozice která prozkoumává tyto argument které jsou floating around delší čas. | |
| --- | |
| Existenční rizika co nejsou vyhubení lidstva: | |
| - totalitarianism (external threat, succession). | |
| - Bad values (rychlé zkonvergování k (sebezachovávající) etice která míjí důležité aspekty (eg: Benthamovo utilitariánství s potěšení vs. jiné prožitky)). | |
| Trajectory changes. | |
| - QWERTY | |
| - ? Technological maturity. ? Convergence in good cases. Jestli jsou dva clustery tak xrisk je dobrý koncept. | |
| - Outcomes jsou relativně disjunktní: velmi dobré nebo velmi špatné. Proto je xrisk užitečná kategorie pro cluster. | |
| - jaké jsou trajectory changes k lepšímu? | |
| Předpoklady: | |
| Non-utilitarians ethics converge: | |
| (assumptions: total-utilitarian, expected value, risk neutrality...) | |
| - vyhodnocení je alespoň částečně agregativní. (Eg: diversity má diminishing returns. ) | |
| - Deontologic: Moc lidí není tak tvrdých jako Kant. A důsledky akce hrají nějakou roli. A protože důsledky vyhrávají o několik řádů tak to začínají trumfovat. | |
| - ? John Rawls: veil of ignorance. | |
| - virtue ethics: civilisation virtues: předat štafetu dále a vylepšit svět co jsme dostali od našich předků. | |
| - ? dost možná jsme jediný inteligentní druh v viditelném vesmíru. Předtím než skončíme bychom si to měli rozmyslet a neudělat to z nerozvážnosti. | |
| Jiné věci kterých si vážíme (a které nejsou zachycené modelem formální etiky): | |
| - znalosti, umění, diverzita, dání na vědomí budoucím generacím. Tj. kdykoli se snažíme maximalizovat něco s hodnotou tak v budoucnosti toho může být hodně. | |
| Population ethics | |
| Person affecting view: | |
| = etika je o tom dělat lidi šťastné, ne jak dělat šťastné lidi. | |
| def: When aggregating the interests of different people to determine the value of an outcome, the interests of 'extra' people count for less or can be ignored. | |
| - Přímý výpočet: není to tak dobré. | |
| - ale je potenciál pro i současné lidi žít dlouho a hodně. | |
| # vs. shape of history: | |
| - asteroid defense vs. objevení že kdysi existovala veliká skvělá civilizace.Příp. lidstvo bylo zasaseno skvělou civilizací která odplula mimo dosažitelný vesmír. | |
| - argument proti diminishing returns v population ethics | |
| # Longtermismus z option value & moral uncertainty | |
| # risk-aversion & expected value theory. | |
| # Můžeme mít vliv: | |
| - z pohledu lidstva: můžeme jadernou válku nemít | |
| Z pohledu jednotlivce: | |
| - nagging feeling že nic. | |
| - Cluelessness | |
| - co by dělal longtermista před 400 lety (očekáváná hodnota vesmíru vzrostla před 100 lety) | |
| - Probability sums to 1 -> člověk to ovlivní malinkato. | |
| - pro koordinaci: lepší framing: jaké portfolio akcí by bylo nejvhodnější aby lidstvo udělalo a kde je dobré místo pro mne (namísto hledání max. individuálního impaktu. v bay-style). | |
| - tj. jsme součástí EA a otázka není jak já moho udělat něco dobrého ale jak těhle pár tisíc lidí může dohromady udělat něco dobrého. | |
| V dobré chvíli: | |
| - Petrov, Leo Szilard, | |
| Co normální člověk v normální chvíli? | |
| - donor-advised fund. | |
| - výzkum jak | |
| - tipping points (letters of Paul, life of Lenin) vs. stablility. | |
| - values | |
| - prepare for opportunity (OSN po WW2) | |
| - broad vs. narrow | |
| - better values. | |
| - democracy. | |
| - jsou některé intervence too broad (urychlení vědeckého výzkumu) | |
| - vs. diff tech. progress. | |
| - vs. crucial considerations | |
| související: | |
| # Washing out | |
| - ne protiklad, ale možný model | |
| - model: saving life -> (exponential growth) -> +1 člověk po zbytek existence. | |
| - pak shortermist více vyhrává | |
| # Discounting / diminishing returns: | |
| dva faktory: | |
| - růst ekonomiky + diminishing returns -> ramsey discounting v penězích. | |
| - + pure rate of time preference: ^ +1%. All philosophers and part of economist consider that a mistake. | |
| - from asking ppl questions: Bias & hyperbolic discounting. | |
| - asi lidi neříkají když mluví o altruistických otázkách či o jiných lidech. | |
| ekonomové to často chtějí. Filosofové +- nikdy. Provést něco někomu blízko i daleko je špatné. Není zřejmé proč by provést něco někomu mělo být méně špatné když utrpení vznikne až daleko. | |
| Problém je ale s infinite ethics. | |
| Otázka: jak záleží na budoucích lidech. Myšlenkový experiment: kleopatra. Je špatné ublížit někomu daleko. V čase taky. | |
| Nutné podmínky: | |
| (mírná) časová neutralita. | |
| (mírná) agregace | |
| (asi) maximalizace namísto satisficing / uspokojování (staré etiky jako buddhistická) | |
| # Far future je nyní neglected. | |
| - o jejich práva & wellbeing se nikdo nehlásí. Proto (vzhledem k důležitosti) tohle je nyní hlavní oblast. | |
| # velikost budoucnosti: | |
| - conditional on survival: kolonizace hvězd je pravděpodobná. Kolonizace galaxií není o moc náročnější. | |
| - 2 části: Dlouhá doba a velké množství lidí. (+ intenzivnější prožitky, + bytosti na čipu). | |
| - množství negtropie co se teď splachuje do černých děr a co hvězdy vyzáří do prázdna. | |
| # Je to kontraintuitivní: | |
| - modus ponens jednoho je modus tollens druhého | |
| - moral progress v minulosti. | |
| - biases: | |
| - black swans, availability, hindsight. | |
| - moral uncertainty: eg: person affecting view -> více shortermism. | |
| - A je to nové a možná jsme minuli crucial consideration. | |
| - tudíž ne overwhelming value, ač to čísla implikují. | |
| [odhalit verze longtermismu] | |
| # Traps: | |
| - naive approach: (naive utilitarian) je sebezničující. | |
| - zapomenutí na second-order effects. Lekce z minulosti: Velké utrpení jde obhajovat ještě větší potenciálním ziskem (tisiciletá říše). | |
| - moral trade & be considerate: ctěte cizí hodnoty. | |
| # Pozice Longtermismu v EA & jeho historie mimo EA | |
| ----- | |
| formát: | |
| - jak zdůraznit klíčové koncepty s hlavní kostru? Co je to hlavní co si mají odnést? | |
| Na longtermismus konverguje mnoho etických teorií. | |
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment