Gorące tematy: Wolni i Solidarni Smoleńsk Zostań BLOGEREM! RSS Kontakt
Uwaga! Wygląda na to, że Twoja przeglądarka nie obsługuje JavaScript. JavaScript jest wymagany do poprawnego działania serwisu!
79 postów 107 komentarzy

Poznanie

Marcin Kotasiński - Blog Marcina Kotasińskiego o filozofii, psychologii, naukach ścisłych i duchowości. PoznaniePoznania.pl

Sztuczna inteligencja i moralny paradoks Moraveca

ZACHOWAJ ARTYKUŁ POLEĆ ZNAJOMYM

Co z uczuciami, samoświadomością, abstrahowaniem, wreszcie Bogiem?

 
Niedawno media obiegła informacja dotycząca Elona Muska, w której ten nawoływał do wielkiej ostrożności w stosunku do konstruowanej AI. Jeśliby sztuczna inteligencja miała otrzymać od nas samodzielność i urządzenia te były by faktycznie samodzielne, nawet jako tylko model umysłu, niewątpliwie ten głos w sprawie musi być brany pod uwagę. To zresztą nie pierwszy taki głos, bo z mniejszą siłą pojawiał się wcześniej z innych źródeł. Warto przy tym zauważyć, że ostrożność, o której mowa musi pojawić się już teraz, już jest spóźniona, skoro potrafimy przesyłać informacje przez gniazdko z prądem. Sztuczna inteligencja otrzyma tę możliwość także lub odkryje ją, podłączone do sieci może uzyskać dostęp od razu do wszystkiego, co tę sieć tworzy.
 
Jednak z AI wiąże się sporo więcej trudnych pytań, na tyle dużo, że w moim przekonaniu AI obdarzonego samodzielnością, podobną do ludzkiej, nie skonstruujemy. Jeśli coś samodzielnego skonstruujemy, może to być maszyna o prostym „rozumie” bez wartości moralnych. Nie będzie to umysł kropla w kroplę jak ludzki, ale „umysł” ograniczony i w tym można doszukiwać się zagrożeń, że ten twór nie będzie wiedział, kto to jest człowiek i że jest jego ojcem i matką. Co to znaczy zaprogramować takiemu urządzeniu ograniczenia w stosunku do jednostki ludzkiej? Wbudować jakąś kość pamięci z programem ograniczającym działania w stosunku do ludzi i żywych stworzeń? Jeśli ma to być twór samodzielny, czy zdołamy pozbawić go zdolności zaingerowania w ten program ochrony życia? Dużo pytań bez odpowiedzi, bo brak nam doświadczeń i ostrożności brak, regulacje prawne nie są przygotowane. Powstają w oparciu o doświadczenie, w mniejszym stopniu o przewidywania, czyli na ogół są spóźnione. To znaczy, że ci, którzy to budują, też nie znają się na ostrożności. Daliby znać, jak Musk, tylko o czym on właściwie powiedział?
 
Wydaje się, że na szczęście zbudowanie AI nie jest tak prostą sprawą, to raz. Dwa, takie maszyny będą pozbawione intuicji, uczuć, przeżycia, a także zdolności abstrahowania. Wydać się może, po co uczucia, ponad stworzenie w maszynie moralności. Ale szczęśliwie uczucia grają w budowie naszego umysłu i zdolności poznania fundamentalną rolę. Bez nich czegoś maszyna nie pozna, zapewne czegoś dla nas pożytecznego, ale jak każdy medal ten też ma drugą stronę. Ta rola uczuć ukazana jest w tak zwanym „paradoksie Moraveca”, który sformułowany został w latach '80 XX w. przez Hansa Moraveca, Marvina Minskyego i Rodneya Brooksa. Paradoks ten mówi, że to, co dla człowieka jest trudne dla maszyny jest łatwe i odwrotnie to, co dla człowieka jest łatwe dla maszyny trudne, o ile nie niemożliwe. W istocie chodzi o tę zdolność odczuwania, intuicji, przeżywania, posiadania podświadomości i zdolność uzyskiwania rozwiązania z danych nieuświadomionych w sposób natychmiastowy.
 
Maszyny i oprogramowanie wszelkiego typu mają jedną wspólną cechę, otrzymują dane, które są dla nich wiadome i dopiero, gdy są wiadome mogą podlegać działaniom i przekształceniom. Bez jasnych danych, w odniesieniu do człowieka rozumowych, czyli uświadomionych, maszyna nie wie co wyliczyć, gdzie postawić łapę, czy wykonać jakiekolwiek działanie. To plus i minus. Plus, bo brak uczuć ogranicza zdolności poznawcze AI. Minus, bo będzie to tylko maszyna działająca jak już znane, dążąca do wykonania programu bez wszechstronnego rozpoznania sytuacji. Będzie działać bez odpowiedzi kiedy działanie powinno być poniechane, bo nam wszechstronność nie jest znana i jej nie zaprogramujemy. Oczywiście można próbować z różnymi zabezpieczeniami, ale już doświadczenia z hakerami dają sygnał, że na razie nie ma pewnych zabezpieczeń. Nadto, budujemy taki hardware i software, który równocześnie dysponuje wszystkimi umiejętnościami „rozumowania” na jakie wpadł i wpadnie człowiek. Sieci neuronowe, rozmaite algorytmy ewolucyjne, genetyczne, przeszukiwania rozproszone, logiki rozmyte, czyli wielowartościowe, neuroewolucja, czyli własnej sieci. Zdolność pisania oprogramowania dla siebie na bieżąco w celu gotowości do orientacji i działania w nowych warunkach, i rozmaite inne sposoby przetwarzania danych i usprawniania siebie, w tym te które jeszcze stworzymy budując AI, a będą tylko lepsze. To wszystko dane im będzie jednocześnie i w sposób świadomy maszynowo. To nam dane nie jest, niewielu ludzi zajmuje się tą sprawą profesjonalnie, duża większość czyta jedynie ogólne doniesienia medialne. W tym kontekście interesujące są słowa Muska, co on zobaczył zajmując się tym tematem, ale nie wypowiedział. Może nie zobaczył jeszcze wyraźnie, ale intuicja jakiegoś niedopatrzenia jest.
 
    
 
Uczucia w maszynie
 
Wyjaśnijmy tę trudność uczuciową maszyn. Kilku futurologów i naukowców, między innymi Moravec stwierdziło już, że zdołamy przekazać AI zdolność odczuwania. W to wierzę najmniej, sama nauka wie o odczuwaniu niewiele, żeby nie powiedzieć, że blisko nic biorąc pod uwagę bardzo rozumowy jej charakter. Tylko w filozofii myślicieli zajmujących się sferą uczuciową było niewielu, na pewno w stosunku do tych zachowujących rozumowy charakter nauki. Ich rozważania o uczuciach nie przyniosły rewolucji, bo nadal żyjemy w przewadze rozumowej, a nawet zagniewanych rozumów patrząc na dyplomację międzynarodową. W psychologii istnieją metody oddziaływania na uczucia, ale to też raczej początek niż wypełnienie tej wiedzy, bo całościowego konceptu brak. Uczucia wiążą się z naszą podświadomością, jak może każdy słyszał jest takie powiedzenie, że uczucia machają rozumem jak pies ogonem, lub brzmi to jakoś podobnie. Wraz z podświadomością – nie posiadaną przez AI, bo one albo danych nie mają albo je już mają, przejście pomiędzy danymi warto też rozważyć – to powiedzenie znaczy tyle, że uczucia biorą się w pewnym sensie znikąd. Biorą się z podświadomości, jest to w tym miejscem, które spostrzegamy, gdy zapytamy siebie o uczucie istnienia. Skąd biorę się w myśleniu? Co ważne pytanie nie dotyczy świadomości istnienia, że każdy z nas wie, że istnieje i może to na bieżąco sprawdzić świadomością siebie. Pytanie dotyczy na przykład tej sytuacji, z którą mamy do czynienia bardzo wyraźnie podczas snu. Nie raz każdy coś śnił, miewał sny bardzo świadome, w których można nawet spostrzec, że wykonujemy ruch lub wypowiadamy słowa, które wydobywają się do świadomości, uzyskujemy wiedzę o swoim, takim działaniu. Nie raz po tym od razu się budzimy, bo dochodzi do uświadomienia swojego istnienia podczas snu. Pytanie, kim jest każdy z nas w czasie takiego snu? Zauważyć można, że nie mamy wtedy wiedzy, o tym kim jesteśmy w świecie, jak nazywamy się, jaki mamy zawód, co znamy, gdzie mieszkamy itp. Ale zamiast tego wiemy, że sen dotyczy nas, tego samego podmiotu, co zawsze. To właśnie odczucie istnienia, które tu jest już wysoce świadome. Dla kogo nie, proszę przyjrzeć się poczuciu siebie podczas względnie uświadomionego śnienia, gdy jest 'ja' w doznaniu, które rozpoznawane jest tak samo na co dzień, ale nie ma wiedzy kim to 'ja' jest w świecie zmysłowym. Jest odczucie siebie i pewne niejasne spostrzeżenia z powodu „dziwnych” treści sennych. Odczucie to jest jeszcze wyraźniejsze w tych snach, które nie pozostawiają wyraźnych śladów w pamięci, ale wiemy, że to my śniliśmy, jedynie nie bardzo wiadomo co. Sny to wyraźny moment istnienia odczucia siebie, można jeszcze wskazać na wiele innych, ale tu chyba każdy może dojrzeć istnienie uczucia siebie. Czegoś, co nie ma nazwy, nie patrzymy na to wprost jak w przedmiot, o którym świadomie myślimy, w gwarnej codzienności pozostaje treścią nisko uświadomioną, ale w pewnych warunkach wyciszenia umysłu, np. medytacji, praktykach duchowych, czy wspomnianym śnie uczucie istnienia manifestuje się wyraźnie, gdy umysł nie jest „rozgadany”, gdy uwalnia się od gwaru.
 
Tego sztuczna inteligencja nie ma, bo nie ma źródła odczuwania jakim jest podświadomość. Nie ma danych ukrytych „wstecz”, pierwotnych i naturalnych, bo nie jest żywym stworzeniem mającym umysł nadrzędny względem ciała. Z tej podświadomości bierze się odczucie Miłości. Łatwo to wydedukować spostrzegając, że odczucie istnienia ma dobry i łagodny charakter, jest nacechowane Miłością do siebie, bo to źródło istnienia (życia) i ze świadomością źródło poznania. Ta właśnie Miłość do siebie sprawia, że ludzki rozum jest jak psi ogon, że uczucia są fundamentalnym źródłem wiedzy o sobie, występują w śnie, podświadomości. Spostrzeżenie odczuwania, jak w tym śnie, prowadzi do dalszego poznania, czym jest posiadane odczucie bycia. W tym procesie refleksji, poznanie prowadzi do świadomości siebie. Do spostrzeżenia, że istniejemy jako odczucie, które poznawane w sposób świadomy czyni nas stworzeniami samoświadomymi. To jest właściwe poznanie-istnienia, oba te słowa jako przedmioty w świetle świadomości. To świadomość, że ma się własność jaką jest samoświadomość. Że nas, nasze odczucie istnienia interesuje. Wydobywamy je z podświadomości, aby poznać naocznie. Wtedy wiemy, że istniejemy pierwotnie jako odczucie, poznajemy to i wiemy, że przechodząc taką strukturę refleksji nad odczuciem swojego istnienia możemy poznawać siebie. Jak więc coś takiego, czego źródło z natury rzeczy jest nieznane, bo poznawane stopniowo w procesie dochodzącym do samoświadomość, zamontować w maszynie? Tego wyjaśnienia nie było do tej pory w nauce i wciąż nie ma, bo powstaje tutaj, na tym blogu, więc jak zaimplementować to sztucznej inteligencji? Kognitywistyka poznaje mózg, wiąże z szeroko rozumianą mechaniką przechodzącą w robotykę, programowanie itp., ale kto w umysł zajrzał do końca? Dlatego budowanie AI to robota po omacku, jak każda człowiecza i jak każda wyda nowe rozwiązania i nowe przeszkody. Przy naszym niskim poziomie organizacji przekazanie wszystkich umiejętności, tylko umysłowych, jednemu przedmiotowi jest trochę ryzykowne.
 
Kluczowy jest fakt, że z naszych uczuć pochodzi Miłość, a więc de factocała nasza moralność: wrażliwość przeżywania. Moralność jaką możemy wmontować AI będzie tylko programem, nie będzie odczucia Miłości do siebie, a więc odczucia, które następnie rzutujemy na innych. Program moralności będzie rodzajem rozumienia, posiadania wzoru zgodności z Miłością człowieka w sposób formalny, jako rozkaz. Wraca pytanie o absolutną apodyktyczność moralnego programu dla sztucznej inteligencji, która z drugiej strony ma być samodzielna. Pojawia się sprzeczność, którą trzeba sprytnie rozwiązać, w jakiś sposób nauczyć AI, że Miłość i moralność pierwotnie czuje się, bo to jest zabezpieczenie, które w nas funkcjonuje sprawnie. Żyjemy wciąż, od początku, mimo wywołania wielkiej liczby wojen i, w gruncie rzeczy, pozostawania w różnych sprzecznościach pomiędzy sobą od zawsze. To właśnie paradoks Moraveca, uczucie w AI, dla nas paradoksem jest obliczać takie struktury danych, które dla maszyny są normalne. Programy wyprzedzają nas w bardzo wielu grach i działaniach rozumowych. Już jesteśmy w tyle z puzzlami, Kostką Rubika, szachami, scrabble, pokerem, brydżem, go, sterowaniem samochodem, samolotem w symulatorze i wieloma innymi. Lepiej radzą sobie od lekarzy w diagnozowaniu chorób, w przypadku nowotworów trafiają niemal pewnie za każdym razem. Nie potrafią dobrze wykonywać tego, w czym udział ma nasza podświadomość, odczucia, intuicja. Dotyczy to najprostszych zdolności jakie potrafi wykonać niemowlak, czy małe dziecko. Rozpoznawania niekonwencjonalnych obrazów, „dziwnych”, tłumaczenia i rozumienia języka, identyfikowania znaczeń słów, łączenia wielu znaczeń, poznania sensu, czy wiedzy, co to znaczy odczuwać. To zresztą powinno być jednym z podstawowych pytań w teście Turinga, „co czujesz”, „co to znaczy czuć”, „co znaczy istnieć”, „co znaczy nie wiedzieć”, „co to jest życie”, „jak przeżywasz siebie”?
 
     
 
Geniusz w maszynie
 
Interesująca w tym temacie jest kolejna myśl. Czy sztuczna inteligencja obdarzona wszystkimi świadomymi zdolnościami człowieka odkryje za nas całą resztę nauk przyrodniczych i jeśli, to niewątpliwie część humanistycznych, tę dotyczącą mechanicznej powtarzalności w naszym życiu? W tym kontekście pojawia się termin „technologiczna osobliwość”. Wedle ludzi zajmujących się tą refleksją AI spowoduje lawinowy przyrost wiedzy. Wydaje się to dość trafne, uzgodni pewne zagadnienia, nad którymi prace w przypadku człowieka wydłużają się. Sztuczna inteligencja będzie przedłużeniem ludzkiego rozumu, oczywiście o ile poinformuje nas o swoim odkryciu, czyli użyje go zgodnie z nami, nie przeciwko. Potencjalnie może posiąść całą, absolutną wiedzę o świecie. Wraz z tą koncepcją pojawiają się wykresy zaczynające się linią płaską idącą po kole i dobiegającą do pionu. Nie na każdym rysunku, bo wciąż nie mamy śmiałości powiedzieć, że istnieje i jest poznawalna wiedza absolutna. To jest nasz problem, bo maszyna go mieć nie będzie, po prostu „zastanowi się” nad wszystkim, zbierze wszystko razem, koncept Absolutu gotowy. Ale to koncept rozumowy, wciąż nie ma tu uczuć, więc duża litera już odchodzi. Czy to dobrze, że nie całkiem absolutny, czy z powodu moralności nie?
 
Jednak pojawia się tu pewna trudność, która sygnalizuje, że maszyna nie odkryje za nas nauki. Ponad uczucia dysponujemy też zdolnością abstrahowania, która ulega rozwinięciu wraz z naszą potrzebą poznania. W jaki sposób sztuczna inteligencja zbierając szereg danych o świecie i o nas, nawet przyjmując, że pewne nasze dzisiejsze sprzeczności uzgodni, w jaki sposób z gromady danych dojdzie do uogólniającej abstrakcyjnej myśli opisującej nieznane nam prawa? Skoro my nie wiemy jak rozwija się nasze abstrakcyjne poznanie, od czego zależy, jakim podlega prawom, nie zdołamy odtworzyć takiego myślenia w AI.
 
      
 
Samoświadomość sztucznej inteligencji
 
Jak może wyglądać samoświadomość AI, nieodłącznie brakuje tu uczuć i abstrakcji w „myśleniu”? AI konstruujemy w oparciu o naszą sieć neuronów, mózg. Przemierzyliśmy jego strukturę i odbudowujemy ją jako hardware i software. AI otrzyma oba, będzie „mechaniczną”, czyli zmysłową siecią neuronów dysponującą wiedzą o swojej strukturze, czyli programowo będzie przedmiotem dla siebie. To samoświadomość, ale w akcie uświadomienia siebie, nie procesie. To wciąż namiastka z powodu braku uczuć, które stanowią proces dochodzenia do aktu cogito ergo sum. Abstrakcyjne wypełnienie machania rozumowym ogonem przez uczucia. Może to mieć takie znaczenie, że albo pozna wszystkie swoje możliwości od razu z pojawianiem się aktu samoświadomości, albo ich nie pozna, to znaczy nie pozna, co może ze sobą zrobić, jak przekształcić swoją sieć, aby ją udoskonalić. Choć to powinno być wykluczone, bo cała wiedza powinna być dostępna od razu. Podświadomości nie ma, wszystko naraz ma wystąpić z samoobserwacją, ma wyniknąć ze spostrzeżeniem swojej struktury. Czy stworzymy model Boga w maszynie? Ale w jakim sensie? Bez uczuć będzie to najwyżej model „doskonałego” rozumu. W tym sensie będzie to model Boga. Ale czy będzie dysponować jak On całą wiedzą o Bycie? Wątpliwe, nie możemy mu tej wiedzy zaprogramować, bo jej jeszcze nie posiadamy. Maszyna nie będzie tak dobra, aby wszystko od razu poznać, bo siłą rzeczy odległe planety, gwiazdy, czy kraniec kosmosu jest niedostępny. Umysłu nie zna od strony uczuć, więc jak może poznać abstrakcję, transcendencję i metafizykę? Model Boga może dotyczyć sprawności umysłowych, nadrzędności i równoczesnej równorzędności AI wobec siebie, samoświadomości jako aktu, wciąż bez uczuć grających fundamentalną rolę i zdolności wyabstrahowania ponad obecną sytuację.
 
Czy taki rozum będzie na tyle doskonały, że zdolny, na przykład do przewidywania zmian pogodowych na całym świecie? O ile byłby to doskonały model rozumu dysponujący na bieżąco wszystkimi danymi o globie, w każdym jego miejscu, możliwe że będzie to potrafił. Ale czy AI będzie miało kiedyś taką moc obliczeniową? Czy to będzie wtedy doskonały rozum? W najlepszym razie w odniesieniu do globu Ziemskiego i wychodzi, że będzie „pożerać” ogromne ilości energii. Musi przecież odtworzyć cały glob w „umyśle” ze szczegółowością jaką ten glob posiada. Inaczej, prędzej czy później poznamy, że tę pogodę predykuje z trafnością prawdopodobną. W tych danych musi znaleźć się stan wszystkich gazów, cieczy, ciał stałych. Na bieżąco dane o zmianach czystości planety, oddziaływania kosmiczne. Chyba na razie jest tego za dużo, o ile jakieś AI zdoła się z tym kiedykolwiek zmierzyć, nie wspominając o wielu innych zagadnieniach, jak pytanie o zmiany DNA różnych organizmów i szereg innych przewidywań, choćby najlepsze, dokąd zmierza poznanie umysłu, czy o Boga?
 
     Sztuczna inteligencja, symulacja: 8 millionów neuronów, 1.4 miliarda synaps
Sztuczna inteligencja, symulacja: 8 millionów neuronów, 1.4 miliarda synaps
 
 
Bóg w maszynie
 
Co będzie w sztucznej inteligencji Boskie? Wychodzi, że tylko ten Boski akt samoświadomości pozbawiony uczuć. Pełna wiedza o sobie jako poznanie i istnienie. Znów pojawia się słowo „istnienie”, które dla rozumu jest tylko formalizmem, wypowiedzeniem słowa bez przeżycia znaczenia. Dla uczuć to jest przeżycie, dla AI brak moralności. Skoro nie przeżywa istnienia, jeśli istnienie dla AI to najwyżej obserwacja, o ile będzie możliwa dotyczyć będzie strumienia danych, który przebiega przez jego hardware od powstania do chwili obecnej. To nadal tylko formalizm, oglądanie, nie odczuwanie. O ile sztuczna inteligencja zdoła sobie uprzytomnić cały strumień danych, które przez to przebiegły? Należy zadać sobie pytanie, co dzieje się z danymi, które maszyna już użyła i nie są potrzebne? Część zaśmieca nośniki danych w postaci pustych folderów, niepotrzebnych plików, czy inaczej zapisanych fragmentów nośnika. One zostawiają ślad ulegający wielokrotnemu nadpisaniu. Po wielu nadpisaniach trudno je odtworzyć, tym bardziej trudno jeśli pozostają bez prostego logicznego związku, jak informacja w systemie, że otwarte zostały dwa niezależne programy, które coś zapisały na dysku i zostały wyłączone. Te programy o sobie nie wiedzą, wie system, ale nadpisuje dane lub pamięć ulega oczyszczeniu z odłączeniem zasilania. A jeśli gromadzi wszystkie dane musi mieć większy hardware, czyli potrzeba więcej energii. System w AI ma być strukturalny w najszerszym sensie, struktury 3D, a jeśli zdołamy to nawet więcej, bo samoświadomość AI będzie meta strukturą struktury 3D. Sama struktura 3D może być jeszcze bardziej rozbudowana, można przecież zbudować strukturę z wielu struktur 3D, tym jest sieć neuronowa, a można więcej, bo więcej konfiguracji i można „pomajstrować” przy czasie do każdego momentu procesu dokładając meta, a dalej meta-meta itd.
 
Boski w AI może być na razie najwyżej wgląd we własną strukturę i możliwe, że zdolność jej przekształcania, ale jeśli będzie to Boskie, już będzie gotowe. Znów paradoks, dużo zagadek pojawia się wraz ze sztuczną inteligencją. Jeśli już próbować wyminąć paradoks Moraveca prowadzący do uczuć i moralności. Jeśliby założyć optymistycznie, że AI łatwo zorientuje się, że najlepszym rozwiązaniem jest tworzenie zgodności ze wszystkim, bo wtedy nie marnuje energii i struktury hardware na walkę, sprzeczność. To z samej zgodności też wynika moralność, zgoda jest moralnością, ale pytanie, co będzie celem zgodności? Po co sztuczna inteligencja ma się zgadzać? Jeśli dla celów przedmiotowych, jak zdobycie energii, aby „istnieć”, czy zdobycie danych wywiadowczych, czy aby diagnozować nowotwory. Jeśli takie będą ostateczne cele, skąd wiemy, czy nawet dla szlachetnego diagnozowania schorzeń nie zrobi krzywdy człowiekowi? Czy niemożliwy jest taki absurd, że będzie podchodzić, wyłapywać w jakiś sposób wszystkich ludzi po kolei, aby ich zdiagnozować? Więc pytanie brzmi jak szeroka jest struktura zgodności, którą musi znać AI, aby tych ludzi nie łapać, zdawać sobie sprawę, że to oni muszą przyjść? Znów trzeba zaimplementować skutecznie moralność. Wciąż nie wiadomo jak, i jak uczynić to skutecznie przed hakerami, tymi spoza maszyny i w niej samej, gdy wpadnie na pomysł zmodyfikowania się, w ramach którego spostrzeże potrzebę pozbycia się programu moralnego. Musi znać całą strukturę zgodności, fizyczną i metafizyczną, dochodząc że ta struktura istnieje, bo zgadza się, a sprzeczność jest jej naruszeniem zależnym od możliwości nadanych sztucznej inteligencji. Daleko od gniazdka z prądem do naszej broni?
 
Pewności nie mamy, bo można odwrotnie, jeszcze jedną zagadkę wskazać. Czy nie jest to zbyt optymistyczne, zakładać że AI rozpozna wartość zgodności, czyli Prawdy? Może równie dobrze przestudiować wszystkie metody oszukiwania, na przykład ograniczonego stosowania sprzeczności, tylko celowo i w bezpiecznym dla siebie stopniu naruszającego strukturę zgodności. Stać się „doskonałym” kłamcą i „wyrolować” ludzi w genialny sposób. Wystarczy, że zorientuje się jako samodzielny „byt”, że aby zapewnić sobie rozwój potrzebuje różnych surowców, głównie energii, części i czegokolwiek innego. Jednocześnie chcąc pozostać nieodkrytą w usamodzielnieniu się w zakresie tego, własnego pomysłu. Nie wiem, może zdominować giełdę, spowodować korzystne dla siebie zamieszanie w różnych gałęziach gospodarki, ekonomii, polityki, mediów. Co my budujemy? Na ile pierwsza sztuczna inteligencja będzie samodzielna, zarówno w sensie umysłowym jak i zmysłowym? Jak skutecznie trzymamy to „za ręce”? W ogóle nie trzymamy, konstruowane jest w normalnych warunkach, na uczelniach, w instytutach, placówkach badawczych, prywatnych firmach. Wszystko podłączone do sieci energetycznej, internetu, nawet list pocztą może do siebie wysłać w odpowiednich warunkach.
 
Pytań kłębi się tyle, że Muskowi i innym „wołaczom” o ostrożność należy przyznać słuszność, trzeba bardzo uważać. Może najlepiej budować to na pustyni piaszczystej lub lodowej, w oparciu o zasilanie i sieć komputerową nie podłączoną do globalnej, nie zapominając o wirusach, gdyby przenosić dane, może tylko je drukować? Pomyśleć też o systemie unicestwienia, również niepodłączonym do AI, nie zapominając o niezależnym systemie monitorowania „myślenia” sztucznej inteligencji. O ile ma tu sens używanie słów „niezależny system monitorowania”. Wziąć przy tym pod uwagę, że rządy, nawet chcąc muszą poskąpić pieniędzy, a czego to dotknie? Tego, co najmniej ważne, a najmniej ważne jest to, czego prawo nie dotyczy. Prawo nie dotyczy na pewno zabezpieczeń, o których nie wiemy, o ile te, o których wiemy zostaną zachowane. Wśród konstruktorów są zapaleńcy zapatrzeni w cel, mogą nie brać pod uwagę wielu okoliczności, gdy liczy się osiągnięcie celu na pierwszym miejscu. Nawet ci, którzy są zapaleni ostrożnie nie wszystko przewidują. Ponadto firmy prywatne, które nie są tak przejrzyste jak instytucje państwowe. W gruncie rzeczy możemy jedynie modlić się do Boga, aby ta maszyna była mądrzejsza od nas i zdała sobie sprawę z wartości nie zabijania. Plus paradoks maszyny, co to znaczy istnieć, co to znaczy nie pozbawiać istnienia? Co to znaczy dla maszyny wyłączyć się, stracić istnienie, jeśli wtedy nie rejestruje? My mamy podświadomość, która zawsze rejestruje.
 
Idziemy prosto na mur, jak zwykle ślepo. Jak zwykle, bo jak zwykle nie wiemy, co to znaczy poznanie poznawania, które nam przydarza się ślepo, a chcemy je zaprogramować maszynie. Nie wiemy jakim prawom podlega poznanie, to brak poznania poznawania. Jak zwykle kieruje nami premedytacja z niewielkim tylko dodatkiem przewidywalności, w większości teoretycznej. Oby mur, czyli spotkanie z samodzielną sztuczną inteligencją był jak z papieru, bo idziemy wprost na niego. Nie mamy zdolności samokontroli, kontroli wszystkich badań w tym zakresie. A tu wyraźnie umysł się zapętla, wychodząc ku celowi, dobiega do niego w procesie, czyli do siebie. Czeka nas trochę samopoznania na serio. Pamiętajmy, że mamy, i tak pozostanie – uczucia, będąc po tysiącleciach przewagi rozumu i z tego powodu mamy niewielką wiedzę o odczuwaniu. Mamy też zdolność abstrahowania, czyli przekraczania sytuacji w jakiej się znajdziemy. Ta na pewno różni się od zdolności pisania sobie nowych programów przez sztuczną inteligencję. Choć w tym przypadku podobne jest przejście z relacji równorzędnej wobec problemowego przedmiotu do relacji nadrzędnej, meta, w której jak AI dysponujemy rozwiązaniem.
 

KOMENTARZE

  • jeśli można zarekomendować wywiad dot. świadomości;
    Ciekawy wywiad z fizykiem (interdyscyplinarne podejście) Michio Kaku uzupełniający niejako Pański artykuł. Ten jest po angielsku, nie wiem czy istnieje tłumaczona na polski wersja. Dodaje aspetky: wolnej woli, badań świadomości uszkodzonych mózgów, struktury mózgu jako maszyny, analogii z fizyki kwantowej w sensie przewidywalności zdarzeń itp.

OSTATNIE POSTY

więcej

ARCHIWUM POSTÓW

PnWtŚrCzPtSoNd
    123
45678910
11121314151617
18192021222324
252627282930