Quantcast
Wątki bez odpowiedzi | Aktywne wątki Teraz jest Cz kwi 18, 2024 15:51



Odpowiedz w wątku  [ Posty: 122 ]  Przejdź na stronę Poprzednia strona  1, 2, 3, 4, 5, 6 ... 9  Następna strona
 Sztuczna Inteligencja a świadomość, "dusza" i zagrożenia 
Autor Wiadomość
Avatar użytkownika

Dołączył(a): So gru 20, 2014 19:04
Posty: 6825
Post Re: Sztuczna Inteligencja, a świadomość "dusza" i zagrożenie
Isoner napisał(a):
No właśnie. Taki sztuczny nośnik inteligencji byłby zagrożeniem dla religii. Zapewne będzie on łatwy w kopiowaniu, archiwizowaniu i przywracaniu, a to oznacza, że w przypadku różnych awarii takiego sztucznego mózgu, będzie go można przywrócić do działania. Czyli nie da się umrzeć. Dla religii nieumieranie będzie fatalnym problemem, bo przecież ona opiera się na śmierci.
Na co komu religia i Bóg, jak się nie umiera?


Nigdy tak nie będzie, że ludzie przestaną umierać, a ryzyko jakiejkolwiek śmierci, spadnie do zera.
Bo nawet jakby wynaleźli eliksir młodości, i ktoś by sie tak chciał odmładzać w nieskończoność, ro przecież w każdej chwili takiego kogoś można zastrzelić :-D
Więc ryzyko śmierci zawsze będzie, a więc i religie zawsze będą.

_________________
Wymyśliłem swoje życie od początku do końca bo to, które dostałem mi się nie podobało.


Pn maja 02, 2016 20:03
Zobacz profil

Dołączył(a): N maja 01, 2016 15:07
Posty: 80
Post Re: Sztuczna Inteligencja, a świadomość "dusza" i zagrożenie
Robek napisał(a):
Nigdy tak nie będzie, że ludzie przestaną umierać, a ryzyko jakiejkolwiek śmierci, spadnie do zera.
Bo nawet jakby wynaleźli eliksir młodości, i ktoś by sie tak chciał odmładzać w nieskończoność, ro przecież w każdej chwili takiego kogoś można zastrzelić :-D
W cyfrowym świecie nie ma to znaczenia. Jak sprzęt padnie, to stawia się nowy i przywraca dane. Będziesz dbał o to by robić kopie zapasowe to nie umrzesz.


Pn maja 02, 2016 20:23
Zobacz profil
Post Re: Sztuczna Inteligencja, a świadomość "dusza" i zagrożenie
ErgoProxy napisał(a):
Jest więc rzeczą niezwykle istotną, aby rozważaną pewność mieć, bo w przeciwnym razie nasza technonieśmiertelność może okazać się zombifikacją, i to zombifikacją doskonałą, której od prawdziwego życia nijak się nie odróżni.
Takiej pewności nigdy mieć nie będziemy. Szanse, przesłanki, cokolwiek? Zapewne. Już teraz nie mogę mieć pewności, że ErgoProxy czy wręcz człek siedzący obok mnie jest samoświadomy. Ale uznaję, że jest, bo widzę powody. Choć nie dowody.

ErgoProxy napisał(a):
Sam orzekłeś, że jest to problem nierozstrzygalny, bo "pewności nie będziemy mieć nigdy". To o czym chcesz rozmawiać, o d... Maryni i ostrożnej Manii? I HALa-9000.
Inicjator wątku zapytał, czy to możliwe, żeby SI w przyszłości były świadome. Możliwe. Czy jeśli zajdzie taki przypadek, to czy będziemy mogli mieć pewność, że właśnie z taką SI mamy do czynienia? Nie będziemy. Ale problem nie jest czysto teoretyczny, więc... no, dobra na końcu, jako podsumowanie.

ErgoProxy napisał(a):
akruk napisał(a):
Co nam w tym przypadku po teście badającym, co się odbywa w mózgu człowieka reagującego na "lek wyłączający świadomość"* i potrafiącego liczyć do stu czy ilu tam? (itd, aż do błędnego koła).
Co nam po alchemii, jeśli nie wiemy jeszcze, że z tego urodzi się potwierdzenie atomistycznej myśli Demookryta?
Oj, raz, że redukujesz badanie tak, że dotyczy tylko pewnych przypadków, więc wyniki uzyskasz ważne też tylko tej klasy przypadków, a nie świadomości w ogóle, jako takiej. Dwa, że koncepcyjnie jakby kołowo. Proponujesz eksperyment mający jakoś tam badać świadomość, rzekomo BEZ uprzedniego założenia, czym jest i po czym ją poznawać. A tymczasem częścią eksperymentu ma być lek wyłączający... świadomość. Skąd wiemy, czy rzeczywiście wyłącza, jeśli WCZEŚNIEJ nie określimy, co to takiego? A określamy na podstawie zredukowania czysto subiektywnego charakteru świadomości do obiektywizowalnych PRZEJAWÓW, prawda? Z góry ZAKŁADAMY, że badany człowiek przed eksperymentem jest świadomy, a w wyniku podania leku nie jest. Co oznacza, że zanim w ogóle zacząłeś gromadzić realny sprzęt i środki, już na etapie myślowego projektowania eksperymentu miałeś gotową KONKRETNĄ redukcję świadomość -> przejawy jako kryterium ROZPOZNAWANIA świadomości. To po co Ci eksperyment? On już nie bada występowania świadomości u danego człowieka, tylko korelację pomiędzy ZACHOWANIAMI, jakie sobie ZAŁOŻYŁEŚ a aktywnością mózgu. (Ależ mi mnóstwo wielkich liter wyszło, ho-ho!).

ErgoProxy napisał(a):
Na dzień dzisiejszy każdy badacz rozporzadza - niech stracę - jednym tylko takim obiektem: świadomością swoją własną mianowicie. Niech więc ją bada, do czorta
Może badać, ale nie bardzo naukowo, bo nauka polega na intersubiektywności, a świadomość nie jest weryfikowalna intersubiektywnie.

Mamy do dyspozycji to, co mamy: każdy z nas pewne zachowania uważa, niedowodliwie, w sposób mniej lub bardziej uświadamiany, za przejawy świadomości. Możemy przy tym popełniać zarówno błąd pierwszego rodzaju, jak i drugiego rodzaju. I nie ma jak sprawdzić. To się tyczy tak samo innych ludzi, szympansów, HAL-ów 9000. W praktyce bez namysłu uznajemy, że inni ludzie są samoświadomi, jak my sami, chyba że ich zachowanie w danym momencie wskazuje, że nie są. Kryteria naukowe mogą być tylko behawioralne: obiekt potrafi zidentyfikować, wskazać sam siebie (np. w lustrze), poprawnie używa zaimka pierwszej osoby liczby pojedynczej itp. One jednak wcale nie dowodzą istnienia faktycznej świadomości, jak sam zauważyłeś. Stanowią natomiast przesłankę, kiedy potrzeba nam praktycznych rozstrzygnięć, czy to etycznych, czy też prawnych. Takie kryteria, ich sensowność, uniwersalność i tak dalej mogą być tematem dyskusyj i stanowić podstawę dla prac badawczych (w istocie, stanowią), i nie są one wtedy dywagacjami o krągłościach Afrodyty Kallipygos.

Mam wrażenie, że obaj myślimy o tym z grubsza tak samo, tylko z innymi akcentami. Ty patrzysz głównie na to, co możemy zrobić z tym fantem: "jednak jakoś da się!", a jam pesymista i powiadam: "da się, ale niezupełnie to, o czym się tu myśli i mówi". Pamiętajmy, co badamy.


Ostatnio edytowano Pn maja 02, 2016 21:15 przez Anonim (konto usunięte), łącznie edytowano 1 raz



Pn maja 02, 2016 21:10
Post Re: Sztuczna Inteligencja, a świadomość "dusza" i zagrożenie
Isoner napisał(a):
W cyfrowym świecie nie ma to znaczenia. Jak sprzęt padnie, to stawia się nowy i przywraca dane. Będziesz dbał o to by robić kopie zapasowe to nie umrzesz.
JEŚLI kopie zapasowe będą dostępne. Oraz sprzęt potrzebny do ich odtworzenia. Taką pewność może ci realnie zagwarantować tylko Pan Bóg -- i bynajmniej nie mówię o życiu pośmiertnym.


Pn maja 02, 2016 21:14

Dołączył(a): N maja 01, 2016 15:07
Posty: 80
Post Re: Sztuczna Inteligencja, a świadomość "dusza" i zagrożenie
akruk napisał(a):
Taką pewność może ci realnie zagwarantować tylko Pan Bóg -- i bynajmniej nie mówię o życiu pośmiertnym.
Przesadzasz. Wystarczy usługodawca chmurowy i lokalne backupy.


A jeszcze co do zagrożeń, to oprócz spadku liczby chętnych do umierania, może dojść też do powstania konkurencyjnego, tym razem całkiem realnego boga. Taka sztuczna, świadoma inteligencja, jak wymknie się spod kontroli, może się rozwijać i stawać bardziej inteligenta.
Kto wie do jakiego osobliwego stanu może taki proces doprowadzić...
Przedsmak tego mogliśmy zobaczyć w filmie "Transcendencja".


Pn maja 02, 2016 21:47
Zobacz profil
Post Re: Sztuczna Inteligencja, a świadomość "dusza" i zagrożenie
akruk napisał(a):
Takiej pewności nigdy mieć nie będziemy. Szanse, przesłanki, cokolwiek? Zapewne. Już teraz nie mogę mieć pewności, że ErgoProxy czy wręcz człek siedzący obok mnie jest samoświadomy. Ale uznaję, że jest, bo widzę powody. Choć nie dowody.

No i to jest właśnie argument duszy papieża Celestyna w dyskusji z duszą Johna Daltona o atomach. Papieża Celestyna nie obchodzi, że John Dalton coś wydedukował trzysta lat po jego śmierci, kiedy nazbierało się wreszcie materiału badawczego. Papieża Celestyna obchodzi, że za jego życia o atomach nie pisał żaden uznany autorytet i że on sam, osobiście, atomów nie pos-trze-gał. Dlatego zresztą papież Celestyn w ogóle dyskutuje z Johnem Daltonem, a nie z Robertem Oppenheimerem, bo tego ostatniego zabił śmiechem. Bomba, jaka bomba? Absolutnie nie do pomyślenia, a zatem niemożliwe.

akruk napisał(a):
Inicjator wątku zapytał, czy to możliwe, żeby SI w przyszłości były świadome.

Do diabła z inicjatorem wątku i jego sztywnym karkiem. : )))

akruk napisał(a):
Możliwe. Czy jeśli zajdzie taki przypadek, to czy będziemy mogli mieć pewność, że właśnie z taką SI mamy do czynienia? Nie będziemy.

Absolutyzacja zastanego stanu wiedzy jest rzeczą nieroztropną. Czy którykolwiek z antycznych myślicieli wpadł na pomysł, na cień pomysłu chociaż, że możliwe jest zjawisko tunelowe, że ciało może przenikać przez drzwi zamknięte? Hm?

Wyszło z eksperymentu. Eksperymenty mają to do siebie, że potrafią ujawnić rzeczy, o których nie wiemy, że ich nie wiemy, ruinując w ten sposób wielkie i wspaniałe konstrukcje wzniesione na czystej spekulacji i na milczącym założeniu, że świat nas już niczym dziwnym nie zaskoczy.

akruk napisał(a):
Oj, raz, że redukujesz badanie tak, że dotyczy tylko pewnych przypadków, więc wyniki uzyskasz ważne też tylko tej klasy przypadków, a nie świadomości w ogóle, jako takiej. Dwa, że koncepcyjnie jakby kołowo. (Następują WIELKIE LITERY).

Wiesz co, ja ten eksperyment wyciągnąłem z czterech liter i ja o tym wiem. Ale jest też taka kapitalna scena w Pogromcach Duchów, kiedy Harold Ramis w hotelu omiata swoim detektorem przypadkowego człowieka z krwi i kości, i w końcu, żeby się upewnić, z kim właściwie ma do czynienia, tka go palcem. Albo masz zaufanie do swoich własnych zdolności poznawczych i do swojej własnej wrodzonej "aparatury pomiarowej", albo baw się w wykluczanie solipsyzmu czystym rozumem i wybacz tylko, że mnie w tej zabawie z Tobą nie będzie.

Owszem, nalezy zidentyfikować założenia, jakie się milcząco czyni przed eksperymentem, na taką mianowicie okoliczność, gdyby eksperyment przyniósł wynik negatywny, jak to się zdarzyło Michelsonowi i Morleyowi w fizyce. Wtedy cofamy się po szkielecie rozumowania i dywagujemy, które założenie było błędne.

akruk napisał(a):
Może badać, ale nie bardzo naukowo, bo nauka polega na intersubiektywności, a świadomość nie jest weryfikowalna intersubiektywnie. (nastepuje wykład)

No dobrze, ale jak w takim razie wyobrażasz sobie ruszenie z robotą do przodu? Eksperyment na tomografie ma wskazać korelat świadomości niebehawioralny. Czy intersubiektywny? O tyle, o ile ufamy kanałowi komunikacyjnemu między samoświadomością a eksperymentatorem, bo że samoświadomość potrafi na użytek własny określać, że jest, raczej wynika z definicji. Plan eksperymentu należy więc doszlifować pod kątem niezawodności wymienionego kanału, ażeby komunikaty były wiarygodne.

akruk napisał(a):
Mam wrażenie, że obaj myślimy o tym z grubsza tak samo, tylko z innymi akcentami. Ty patrzysz głównie na to, co możemy zrobić z tym fantem: "jednak jakoś da się!", a jam pesymista i powiadam: "da się, ale niezupełnie to, o czym się tu myśli i mówi".

Trzeba przyznać. No, problem jest poniekąd muenshausenowski, tyle że jakoś trzeba się z tego bagna wydostac.

akruk napisał(a):
Pamiętajmy, co badamy.

Otóż rzecz w tym, że tego nie bardzo wiadomo. Jeśli jednak nie ufamy samoświadomości, kiedy ta przekazuje komunikat "jestem", to dlaczego mielibyśmy jej ufać, kiedy wygeneruje złożoną wypowiedź filozoficzną czy psychologiczną?


Pn maja 02, 2016 23:27
Post Re: Sztuczna Inteligencja, a świadomość "dusza" i zagrożenie
Isoner napisał(a):
akruk napisał(a):
Taką pewność może ci realnie zagwarantować tylko Pan Bóg -- i bynajmniej nie mówię o życiu pośmiertnym.
Przesadzasz. Wystarczy usługodawca chmurowy i lokalne backupy.
Srurowy.

Warunki korzystania z usług Google napisał(a):
Odpowiedzialność za Usługi

JEŚLI JEST TO DOZWOLONE PRZEZ PRAWO, FIRMA GOOGLE ANI JEJ DOSTAWCY I DYSTRYBUTORZY NIE PONOSZĄ ODPOWIEDZIALNOŚCI ZA UTRACONE ZYSKI, PRZYCHODY ANI DANE, STRATY FINANSOWE, SZKODY POŚREDNIE, SZCZEGÓLNE, WTÓRNE ANI MORALNE, A TAKŻE ODSZKODOWANIA Z TYTUŁU STRAT MORALNYCH.

W ZAKRESIE DOZWOLONYM PRZEZ PRAWO CAŁKOWITA ODPOWIEDZIALNOŚĆ FIRMY GOOGLE, JEJ DOSTAWCÓW I DYSTRYBUTORÓW Z TYTUŁU WSZELKICH ROSZCZEŃ NA MOCY NINIEJSZYCH WARUNKÓW, W TYM Z TYTUŁU WSZELKICH DOROZUMIANYCH GWARANCJI I RĘKOJMI, JEST OGRANICZONA DO KWOTY ZAPŁACONEJ NAM PRZEZ UŻYTKOWNIKA ZA KORZYSTANIE Z USŁUG (LUB, JEŚLI PODEJMIEMY TAKĄ DECYZJĘ, OGRANICZONA DO PONOWNEGO ŚWIADCZENIA PRZEZ NAS USŁUG UŻYTKOWNIKOWI).

W ŻADNYM PRZYPADKU FIRMA GOOGLE, JEJ DOSTAWCY ANI DYSTRYBUTORZY NIE PONOSZĄ ODPOWIEDZIALNOŚCI ZA JAKIEKOLWIEK STRATY BĄDŹ SZKODY, KTÓRYCH NIE MOŻNA PRZEWIDZIEĆ PRZY ZASTOSOWANIU UZASADNIONYCH ŚRODKÓW.


typowa klauzura ubezpieczeniowa napisał(a):
Wyłączenia, czyli zakres którym nie jest objęte ubezpieczenie, dotyczą:
wojny, inwazji, wrogich działań obcego państwa, działań o charakterze wojennym niezależnie od tego czy wojna została wypowiedziana czy nie, wojny domowej, rebelii, rewolucji, powstania, rozruchów, strajku, lokautu, aktów sabotażu, zamieszek wewnętrznych, wojskowego lub cywilnego zamachu stanu, zorganizowanych działań lub działań w złym zamiarze osób działających w imieniu lub w powiązaniu z organizacjami politycznymi, spisku, a także konfiskaty, nacjonalizacji, zarekwirowania, zajęcia, przetrzymywania, zniszczenia lub uszkodzenia mienia z nakazu właściwych organów administracyjnych lub sądowych danego państwa.


Wt maja 03, 2016 8:56

Dołączył(a): N maja 01, 2016 15:07
Posty: 80
Post Re: Sztuczna Inteligencja, a świadomość "dusza" i zagrożenie
akruk napisał(a):
Srurowy.
Jak skorzystasz z kilku profesjonalnych usługodawców, którzy przechowują backupy w serwerowniach na wielu kontynentach i dodatkowo zrobisz własne kopie, to możesz się obawiać jedynie globalnej katastrofy. A w takim przypadku to i z religią będzie krucho.


Wt maja 03, 2016 9:39
Zobacz profil
Post Re: Sztuczna Inteligencja, a świadomość "dusza" i zagrożenie
ErgoProxy napisał(a):
No dobrze, ale jak w takim razie wyobrażasz sobie ruszenie z robotą do przodu? Eksperyment na tomografie ma wskazać korelat świadomości niebehawioralny.
Korelat behawioru. Bo to idzie tak: najpierw ograniczamy na potrzeby badań, z musu, niebadalną intersubiektywnie świadomość do pewnych wykoncypowanych jej przejawów, bo tylko te możemy badać, a potem te przejawy sobie badamy... Ten właśnie krok: świadomość (której nie ma jak badać) -> jakieś przyjęte przez nas objawy (które mamy jak badać), stanowi o tym, że nie badamy już tego, co wydaje się, że na początku mieliśmy badać, zaś wnioski dotyczą "świadomości" zdefiniowanej przez te wybrane, zewnętrzne, intersubiektywne objawy. Czyli inaczej niż w zwykłym i tradycyjnym znaczeniu tego pojęcia, używanym powszechnie.


Wt maja 03, 2016 9:43
Post Re: Sztuczna Inteligencja, a świadomość "dusza" i zagrożenie
Isoner napisał(a):
akruk napisał(a):
Srurowy.
Jak skorzystasz z kilku profesjonalnych usługodawców, którzy przechowują backupy w serwerowniach na wielu kontynentach i dodatkowo zrobisz własne kopie, to możesz się obawiać jedynie globalnej katastrofy. A w takim przypadku to i z religią będzie krucho.
Chmura to nic innego jak cudzy komputer. Nie ma żadnych dodatkowych magicznych mocy zapewniających stuprocentowe bezpieczeństwo. Zaś każdy usługodawca gwarantuje co najwyżej odszkodowanie, a i to nie w każdej sytuacji. Już nie wspomnę o takiej trywialnej rzeczy jak koszt. Masz to, za co zapłaciłeś. Wrzucasz bezpłatnie swoje dane na maszyny Google'a? Ok, ale żadnej gwarancji i żadnych nawet odszkodowań, jeśli je szlag trafi. A jeśli zapłaciłeś, to możesz domagać się odszkodowania pieniężnego do wysokości zapłaty, ale nie wymusisz na nich odzyskania i zwrotu danych. Od nikogo nie wymusisz.

Przede wszystkim: całkowita pewność nie oznacza, że utrata danych jest bardzo mało prawdopodobna (np. różne nieprzewidziane wydarzenia w różnych miejscach jednocześnie), ale że jest absolutnie niemożliwa. Tylko Pan Bóg, powiadam, mógłby dać całkowitą pewność.


Wt maja 03, 2016 9:58
Moderator
Avatar użytkownika

Dołączył(a): So paź 23, 2010 23:17
Posty: 8670
Post Re: Sztuczna Inteligencja, a świadomość "dusza" i zagrożenie
Isoner, Ty piszesz jedynie o kopiach. To tak samo, jak klony. Zupełnie nijak nie przeszkadzają w umieraniu.

_________________
Don't tell me there's no hope at all
Together we stand, divided we fall

~ Pink Floyd, "Hey you"


Wt maja 03, 2016 12:05
Zobacz profil

Dołączył(a): N maja 01, 2016 15:07
Posty: 80
Post Re: Sztuczna Inteligencja, a świadomość "dusza" i zagrożenie
akruk napisał(a):
Wrzucasz bezpłatnie swoje dane na maszyny Google'a? Ok, ale żadnej gwarancji i żadnych nawet odszkodowań, jeśli je szlag trafi. A jeśli zapłaciłeś, to możesz domagać się odszkodowania pieniężnego do wysokości zapłaty, ale nie wymusisz na nich odzyskania i zwrotu danych. Od nikogo nie wymusisz.
Z igły robisz widły. Gdyby rozwiązania te były tak zawodne, tak podatne na nieszczęścia, jak to pokazujesz, to nie znalazłyby one rzeszy setek milionów użytkowników, a z tych co skorzystali z "badziewnej" usługi tworzyła by się kolejka niezadowolonych tych, co im dane urwało.
Czy taką sytuację obserwujemy?
Nie, jest dokładnie przeciwnie.
Miliony zaadaptowały usługi, jednoczesne, globalne nieszczęścia się nie wydarzają, a do Googla ustawiają się kolejki nie tych co stracili dane, ale tych, którzy domagają się, żeby Google łaskawie zapomniał ich danych. Już się nawet utarło takie powiedzenie wśród tych co użytkowali parę lat internet: jak wrzucisz coś do sieci, to licz się z tym, że to zostanie w niej na zawsze.
Z Googlem jest podobnie. Możesz usunąć swoje emaile. Możesz następnie usunąć je trwale opróżniając folder kosza, a i tak obok będzie widniała porada, że gdybyś jednak chciał odzyskać swoje trwale usunięte emaile, to zgłoś się do działu technicznego.
Poza tym serwerownie nie są jedynie zwykłymi cudzymi komputerami.
To są dedykowane budowle, nawet pod ziemią, z własnym zasilaniem, ochroną, częściami zapasowymi, łączami zapasowymi, nadzorem 24h.
Już nie będę wspominał o czymś takim jak Storj - zdecentralizowanej chmurze dyskowej.
Gdyby pojawiła się usługa backupowania i przywracania elektronicznego mózgu to zapewne znalezłaby miliony chętnych, którzy szybko zapomną o dziwnej czynności polegającej na chodzeniu do kościoła i modleniu się tam.
A jak doszłaby do tego mechanizacja ciała, to obstawiam, że najpopularniejszym sportem będą skoki bez spadochronu. Tylko po co na takie ekstremalne wycieczki w ogóle zabierać mózg?
Lepiej byłoby go hostować w chmurze, na macierzach RAID (odpadłby problem z ręcznym robieniem save game'ów).


Wt maja 03, 2016 13:12
Zobacz profil

Dołączył(a): N maja 01, 2016 15:07
Posty: 80
Post Re: Sztuczna Inteligencja, a świadomość "dusza" i zagrożenie
Soul33 napisał(a):
Isoner, Ty piszesz jedynie o kopiach. To tak samo, jak klony. Zupełnie nijak nie przeszkadzają w umieraniu.
Nie uważam, żeby to było tak samo jak z klonami. Klonowanie człowieka z DNA, a kopiowanie elektronicznego mózgu to dwie zupełnie różne sprawy.


Wt maja 03, 2016 13:18
Zobacz profil
Post Re: Sztuczna Inteligencja, a świadomość "dusza" i zagrożenie
akruk napisał(a):
Korelat behawioru.

No i? Shut up and compute, tak się robi w fizyce z funkcją gęstości prawdopodobieństwa, aczkolwiek różni ludzie zdziwiają na potęgę, że różne wszechświaty, że redukcja stanu unitarnego i czort wie, co jeszcze. Jeżeli badacz nie ma zaufania do kolegi badacza, że samoświadomy, to niech się kładzie na tomograf sam; zresztą, jedną z podstaw Świętej Metodologii jest powtarzalność eksperymentów niezależnie od osoby eksperymentatora.

Isoner napisał(a):
(pitu-pitu, chlastu-chlastu, będzie mnie tu jedenastu)

Podstawowa sprawa: załadowanie kopii bezpieczeństwa umysłu do nowej maszyny możliwe jest w dowolnej chwili, a nie wyłącznie po nieodwracalnym zdewastowaniu maszyny poprzedniej. To oznacza, że kopia nie jest tożsama z oryginałem, a to oznacza zombifikację, nie immortalizację. Jeśli Lem za trudny w lekturze, można spróbować Dukaja, "Perfekcyjna Niedoskonałość", tam taka sytuacja jest opisana w praktyce.


Wt maja 03, 2016 14:11

Dołączył(a): Pt gru 30, 2011 9:17
Posty: 11383
Post Re: Sztuczna Inteligencja, a świadomość "dusza" i zagrożenie
Isoner napisał(a):
Gdyby pojawiła się usługa backupowania i przywracania elektronicznego mózgu to zapewne znalezłaby miliony chętnych, którzy szybko zapomną o dziwnej czynności polegającej na chodzeniu do kościoła i modleniu się tam.


Waptliwe, by w jakikolwiek istotny sposób zagospodarowywało to lęk przed śmiercią rozumianą jako własne nieistnienie, może jedynie w aspekcie obawy przed niedokończeniem swoich spraw. Tak jak pisze Ergo - skoro kopia istnieje równolegle ze mną i można uruchomić ją w dowolnym momencie, to oczywistym jest, że to nie jestem ja.

_________________
Lubię Starego czasem, to też sprawia
że się wystrzegam otwartej z nim wojny
Przecież to piękne, gdy Pan tak dostojny
Tak z samym diabłem po ludzku rozmawia.


Wt maja 03, 2016 14:34
Zobacz profil
Wyświetl posty nie starsze niż:  Sortuj wg  
Odpowiedz w wątku   [ Posty: 122 ]  Przejdź na stronę Poprzednia strona  1, 2, 3, 4, 5, 6 ... 9  Następna strona

Nie możesz rozpoczynać nowych wątków
Nie możesz odpowiadać w wątkach
Nie możesz edytować swoich postów
Nie możesz usuwać swoich postów
Nie możesz dodawać załączników

Szukaj:
Skocz do:  
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group.
Designed by Vjacheslav Trushkin for Free Forums/DivisionCore.
Przyjazne użytkownikom polskie wsparcie phpBB3 - phpBB3.PL