A Neumann Társaság blogja az informatika, robotika legmenőbb témaköreiről – újszerű megközelítésben.

Kvantumugrás

Kvantumugrás

Cyberpunk, a sci-fi forradalma

2022. július 06. - ferenck

Kevés irodalmi stílusra hatott annyira a számítógépes technológia, mint az 1980-as években a sci-fit újradefiniáló cyberpunkra. A hatás kölcsönös volt, hiszen az irányzat legjelesebb alkotója, William Gibson 1984-ben, a kései 20. század talán legnagyobb hatású regényében, a Neuromancerben, a világháló előtt bevezette az online lét és az immerzív virtuális valóság szintéziseként is értelmezhető cybertér (cyberspace) fogalmát.

Az irányzat nem előzmények nélkül alakult ki, Gibsonra és a többiekre (Bruce Sterling, Rudy Rucker, Vernor Vinge, Neal Stephenson stb.) az 1960-as évek sci-fi új hulláma, főként Philip K. Dick és J. G. Ballard, a korabeli japán high-tech, a punk és a korai hacker-kultúra hatott. Elsősorban azonban az IT gyors fejlődése, a személyi számítógép megjelenése, a mesterségesintelligencia-kutatások, ember-gép interfészek.

cypunk.JPG

A korábbi sci-fik többségével ellentétben, a cyberpunk művek utópia helyett disztópiában, távoli helyett közeli jövőben, idegen bolygók és messzi naprendszerek helyett a Földön, és szinte mindig posztindusztriális nagyvárosi közegben, gyakran Tokióban, esetleg Hongkong-szerű metropoliszban játszódnak. Ezek a regények, filmek, televíziós sorozatok (Max Headroom), képregények, animék, mangák (mint Katsuhiro Otomo Akira-sorozata), játékok és zenék mindig a low life és a high-tech valamilyen kombinációi; tudományos-technológiai eredmények, például a mesterséges intelligencia vagy a VR ellenpontozása a társadalmi összeomlással, leépüléssel, szuperszámítógépek monokróm terekben, neonfényben úszó koszos sikátorban.

cypunk4.JPG

A Neuromancer és az 1988-ban meg is filmesített Akira mellett, az évtized harmadik – időrendben első, 1982-es – kulcsműve Ridley Scott Dick egyik kisregényén alapuló Szárnyas fejvadásza (Blade Runner) volt.

A klasszikus cyberpunk-művek karakterei a társadalom perifériáján és a high-tech csúcsán élő marginális figurák. Az infokom gyors változásai folyamatosan átalakítják a főként a számítógépes adatszférában töltött életüket. Az adatszféra virtuális valósága és a fizikai valóság közötti határok képlékenyek, átjárhatók, egyre megfoghatatlanabbak.

cypunk2.JPG

Az átalakulás a testükre is vonatkozik: sokuk változatos beültetésekkel próbálja növelni agykapacitását. Korai cyborgok, de mindig manipulálják őket, sok választási lehetőséggel nem kecsegtető szituációkba keverednek, és hiába éreznek rá kristálytisztán összefüggésekre, általában ugyanott fejezik be, ahol kezdték.

cypunk1.JPG

A cselekmény mesterséges intelligenciák, megavállalatok és hackerek körül bonyolódik, a szerzők jócskán merítettek hozzá a film noirt megalapozó klasszikus amerikai detektívregényekből (Raymond Chandler, Dashiell Hammett, William Irish) – nem csak a cselekményvezetésben, hanem hangulatábrázolásban is, amelyben egyébként a posztmodern próza is hatott rájuk.

cypunk3.JPG

Az igazi – orwelli – hatalom már nem az egyre erőtlenebb államok, hanem globális korporációk kezében van, és nincs menekvés előlük. Összeesküvéseket szőnek a még nagyobb befolyásért, de porszem kerül a gépezetbe, mert valakik kulcsfontosságú adatokat tulajdonítanak el tőlük, és ekkor jelenik meg az antihős legfőbb karakter, neki kellene megoldani a rejtélyt. Általában sikerül, de utána még az élettől is elmegy a kedve.

Küldetését az infokom technológiák csúcsarzenáljával teljesíti be, és ebben az értelemben a cyberpunk-munkák jövő-forgatókönyvekként, IT előrejelzésekként is értelmezhetők: hova fejlődik az internet? Mivé válik a nanotechnológia? Mi várható a mesterségesintelligencia-fejlesztésekben?

cypunk0.JPG

Az 1999-es első Mátrixban összegződő cyberpunk tipikusan az 1980-as és 1990-es évek ezredforduló-váró kulturális terméke volt. Legjelesebb alkotói változatlanul aktívak, munkáik az irányzat modernizált, aktualizált változataihoz (poszt-cyberpunk, biopunk, nanopunk, steampunk stb.) kapcsolódnak, vagy egyszerűen túlléptek az irányzaton és utódain (mint Gibson), miközben egyes jövendőmondásaik beteljesültek mára.

Frissítve: 2023. december 28. (Fotók: Kömlődi Ferenc)

 

Hova tűntek a szakértői rendszerek, avagy történelmi visszapillantás a mesterségesintelligencia-kutatás hőskorára

A modern számítógépek 1940-es évekbeli megjelenését követően, tudósok az 1950-es években kezdték realizálni a gépek potenciális társadalmi hatásait. Az első kihívások egyike az emberi módon történő „gondolkodás”, elsősorban a döntéshozás valamilyen szintű utánzása volt. (Még ma is az, és egy ideig valószínűleg az is marad.)

Számítógépes döntéshozással az évtized végén kezdtek el foglalkozni, például diagnosztikai alkalmazásokra fejlesztettek rendszereket az egészségügynek. A gépek a beteg tüneteit és laboratóriumi teszteredményeit használták inputként, és diagnosztikai outputot generáltak belőle.

Ezek voltak az első szakértői rendszerek. A kutatók azonban rájöttek, hogy a hagyományos módszerek, például a folyamatábrák, a statisztikai mintaillesztés és a valószínűségelmélet használata korlátozott eredményekhez vezet, és tudásalapú megoldásokon kezdtek el dolgozni. Az új alapokon nyugvó első rendszer, az 1965-ös stanfordi MYCIN vegyületeket elemzett. Rajta kívül az egészségügyben az INTERNIST-I és az 1980-as évekbeli CADUCEUS volt a két legismertebb. Az 1970-es évektől, az orvosi diagnosztika mellett több szektorban, köztük a befektetői világban és a kőolaj-iparban alkalmaztak hasonlókat.

ex0.jpg

Egy szakértői rendszer mesterségesintelligencia-módszereket használva, a megoldáshoz emberi szakértelmet igénylő szakterületi problémákat abszolváló számítógépes program. Két komponensen, ismeretbázison és következtetőmotoron alapul, hozzájuk kapcsolódik a felhasználói interfész. Az ismeretbázisban tárolt információkat, tények és szabályok gyűjteményét humán szakértők gyűjtik össze. Az ismereteket általában „ha, akkor” formában reprezentálják. A keresőmotorként funkcionáló következtetőmotor a felhasználó lekérdezésére releváns infókat keres az ismeretbázisban, A felhasználói interfész az a felület, amelyen keresztül interakcióba lépünk a rendszerrel.

Egy ismeretbázis többezer szabályt is tartalmazhat, a konklúzióhoz gyakran csatolnak valószínűségi faktort, például szembetegség diagnosztizálásakor, a rendelkezésre álló szabályokból kiderül, hogy a páciens glaukómájának esélye 90 százalék, a program azonban felsorolja a kevésbé valószínű lehetőségeket is. A bázis heurisztikus szabályokat (”ökölszabályokat” – konkrét tapasztalatokon alapuló, a gyakorlatban könnyen alkalmazható becslési módszereket) is tartalmaz.

ex1.jpg

Egy szakértői rendszer tanácsot ad, segíti az emberi döntéshozást, példákat mutat be, megoldást vezet le, diagnosztizál, elmagyaráz dolgokat, interpretálja az inputot, eredményeket jelez előre, megindokolja a következtetést, alternatív opciókat javasol. Sokkal inkább segíti, semmint helyettesíti a szakértő embereket.

Az Egyesült Államok mellett Franciaország is nagyon aktív volt a szakértői rendszerek kutatásában, fejlesztésében, de míg az USA-ban a LISP programozási környezetet részesítették előnyben, addig a franciák főként a Prologot használták. Ezek a rendszerek nemcsak a „ha, akkor” szabályokra összpontosítottak, hanem komplexebb logikára is épültek.

ex3.jpg

Az 1980-as években, az IBM PC, a PC DOS oprendszer és a kliens-szerver modell megjelenésével, a személyi számítógépekkel, nagyságrendekkel olcsóban lehetett műveleteket végezni, következtetni, mint a nagyvállalati szektor mainframe komputereivel. Ezek a változások átalakították a szakértői rendszerek piacát, egyre többet fejlesztettek PC-re.

Az irreális elvárások már az 1970-es években a csillagos eget súrolták, sokan nem vették figyelembe a rendszerek és a mesterséges intelligencia korlátait. Ezzel együtt a szakértői rendszereket tekinthetjük az első sikeres MI-szoftvereknek. Virágkoruk az 1980-as években volt, a következő évtizedben viszont száműzték a kifejezést az IT-szótárakból. Az egyik álláspont szerint azért, mert nem váltották be a hozzájuk fűzött reményeket. A másik alapján viszont sikerük áldozataivá váltak, és céleszköz helyett általánosabb rendeltetésű megoldásokba (SAP, Oracle) integrálták őket.

A szakértői rendszerek kétségtelen korlátainak felismerése az emberi döntéshozást szimuláló új megközelítések kidolgozására inspirálta a kutatóközösséget. Ezek a megközelítések a mesterséges intelligencia, a gépi tanulás és az adatbányászat eredményein alapulnak. Mindhárom terület olyan gyorsan fejlődik, hogy a hajdani szakértői rendszerekhez hasonló funkciókat betöltő, de összehasonlíthatatlanul gyorsabb, eredményesebb és intelligensebb megoldásokat ma már senki nem nevezné szakértői rendszereknek, pedig van közük hozzájuk.

Frissítve: 2023. december 28.

Az önvezető járművek jelene és jövője

Naponta olvasunk róluk, évek óta prognosztizálják, hogy hamarosan megjelennek az utakon, komoly jövőt, a városi és általában a forgalom racionalizálását jósolják nekik, a fenntartható fejlődés egyik fontos elemét látják bennük, de tesztjárművek és korlátozott időiintervallumban és szigorúan "beszabályozott" kert- és külvárosi utakon közlekedő arizonai, texasi és kaliforniai taxik kivételével, teljesen autonóm, önvezető autók nem jelentek még meg az utakon.

Egy önvezető jármű emberi beavatkozás nélkül működik, érzékeli a környezetét. Nem szükséges, hogy benne ülő személy irányítsa, sőt, optimális esetben nem is kell, hogy üljön benne valaki. Bárhova mehet, ahova egy hagyományos jármű el tud menni, és megtesz mindent, amire egy gyakorlott humán sofőr képes.

A szoftver eredményes működéséhez szenzorok, aktuátorok, komplex algoritmusok, gépitanulás-rendszerek és nagyteljesítményű processzorok kellenek. Különböző részein elhelyezett érzékelők adatai alapján, a jármű térképet készít környezetéről, amelyet folyamatosan frissít. A közeli járművek pozícióját radarok figyelik, a jelzőlámpák, táblák kezelését, más járművek és a gyalogosok figyelését videokamerák végzik. A távolságok mérése, az útszélek és a sávok azonosítása lidar feladata, a kerekek ultrahangos érzékelői pedig parkoláskor észlelik a szegélyeket, más járműveket.

Ezeket az inputokat szoftver dolgozza fel, majd útvonalat tervez, utasításokat ad a gyorsulásért, fékezésért és a kormány irányításáért felelős aktuátoroknak. A szoftvert kódolt szabályok, akadálykerülő algoritmusok, objektumfelismerő technikák támogatják a közlekedési szabályok betartásában, akadályok közötti eligazodásban.

A teljesen manuális nulladiktól a teljesen autonómig, a járművezetés egymásra épülő hat szintje különböztethető meg. Egyes szakértők szerint 2025-ben nyolcmillió teljesen vagy félig autonóm jármű lesz az amerikai közutakon. Elvileg, mert jelenleg a második szintnél fejlettebbeket – főként biztonsági, és nem feltétlenül technikai okokból – még nem gyártanak nagy mennyiségben, úgyhogy a prognózis túl merésznek tűnik.

sdc.jpg

A mai járművek zöme a nulladik szinten tart, ember vezeti őket, gépi rendszerek, például az autonómiának nem nevezhető vészhelyzeti fékek ugyan segítik, de mindent ő tesz.

Az első az automatizálás legalacsonyabb szintje, a vezetőt egyetlen, például a kormány használatát és a gyorsítást, az autó többi járműtől való biztonságos távolban tartását segítő rendszer támogatja.

A második a kormányt és a gyorsítást/lassítást egyaránt kontrolláló fejlett asszisztens-rendszer. A vezetői székben ember ül, és bármikor átveheti a jármű feletti teljes irányítást. A Tesla Autopilot és a General Motors Cadillacjének Super Cruise rendszere ilyen.

A technológiailag nagyon fontos, emberi nézőpontból viszont alig értékelhető ugrásnak számító harmadik a feltételes autonómia. A jármű érzékeli a környezetet, megalapozott döntéseket tud hozni, például felgyorsít egy lassan haladó autó mellett. Emberi kontrollra, döntései esetleges felülírására mégis szüksége van. Ha a rendszer ugyanis elhibáz valamit, a vezetőnek minden pillanatban készen kell állnia a beavatkozásra. Ezen a területen az Audi ért el fontos eredményeket.

Az ötödik – azaz negyedik – a magas szintű automatizálás annyiban különbözik az előzőtől, hogy rendszerhiba esetén a jármű is beavatkozhat, legtöbb esetben viszont nincs szükség emberi cselekvésre. Egy személy azonban még mindig beavatkozhat manuálisan, módjában áll felülírni a gép döntéseit. Az Alphabet, a kanadai Magna, a francia NAVYA, a Volvo és a Baidu próbálkozik ezzel a szinttel, az eddigi leglátványosabb sikereket a Waymo (Alphabet, azaz Google) érte el.

A teljes autonómia a tényleges ember nélküli vezetés; ezekben az autókban kormánykerék, fék- és gázpedálok sincsenek. Világszerte tesztelnek már párat.

Beszámolók alapján a jelenlegi önvezető autók fizikai biztonsági megoldásai (biztonsági övek, légzsákok, blokkolásgátló fékek stb.) sokkal fejlettebbek, mint a digitálisak. Még nincsenek teljesen felkészülve, hogy az online világban abszolút megbízhatóan működjenek. A cyberbiztonság nincs megnyugtatóan megoldva, bármikor elképzelhető hackertámadás.

Több jövőkép alapján, az önvezető járművek egyik legfőbb haszonélvezői az ingázók lehetnek. Többedmagukkal utazhatnak majd ugyanazon a megosztott járművön, és közben változatos tevékenységeket folytathatnak. Mindaddig viszont nyilvánvalóan nem cserélik le a vonat-, busz- stb. utat, amíg azok nagyobb biztonságot jelentenek.

Addig technológiai, szabályozási, környezeti és filozófiai problémákat kell megoldani, kérdéseket megnyugtató módon megválaszolni. Többek között a lidarokon és a radarokon bőven akad még finomítanivaló, az időjárás és a közlekedési feltételek, útviszonyok is bezavarhatnak, és a szabályozás sem egyértelmű, például, hogy ki a felelős önvezető járművek okozta balesetekért. Végül a mesterséges és az emberi intelligencia közötti különbségeket is figyelembe kell venni – egy humán vezető szemkontaktus alapján olvassa a gyalogosok arckifejezését, érti a testbeszédet, s mindezek alapján a pillanat törtrésze alatt hoz döntést. Egy önvezető autó mikor lesz képes erre, bele kódolható-e ugyanaz az életmentő ösztön, ami mindannyiunkban megvan.

Ha minden a tervek szerint megy, és az önvezető járművek széles körben elterjednek, használatuk számos előnnyel jár majd. Kevesebb lesz a dugó, csökkennek a szállítási költségek, javulnak a munka- és életkörülmények, rengeteg parkolóhely szabadul fel, 2050-re világviszonylatban 80 százalékkal kevesebb lehet a károsanyag-kibocsátás. Persze csak akkor, ha minden a tervek szerint megy, de egyelőre túl sok a nem kalkulált kellemetlenség, amelyek jelentősen hátráltathatják a technológia mainstreammé válását. Már ha valaha is mainstreammé válik.

Frissítve: 2023. december 28.

A közösségi média korában virágzik a digitális marketing

Az amerikaiak háromnegyede napi szinten internetezik, 43 százalékuk naponta egynél több alkalommal, 26 százalékuk pedig „szinte folyamatosan” online van. A mobilinternet-felhasználók körében még magasabbak a számok: napi egy alkalommal az amerikaiak 89, állandóan 31 százaléka netezik.

E számok ismeretében egyértelmű, hogy a reklám- és marketing-szektor ráállt a digitális közegre. Célzott online videók, képes és fizetett közösségi hirdetések, keresőmarketing, speciális közösségimédia-bejegyzések – az internet a reklám egyik legfontosabb terévé vált napjainkra. Marketingesek állandóan új digitális stratégiákat dolgoznak ki a még nagyobb nyereség érdekében. A márkát az internetes kommunikáció valamennyi formáját használva kapcsolják a potenciális ügyfelekhez.

Digitális marketingen, a magazinhirdetések, óriásplakátok, speciális levelek és televíziós reklámok alkotta hagyományos marketinggel ellentétben, számítógépen, telefonon, tableten vagy más számítási eszközön megjelenő reklámkampányokat értünk. A marketingesek ezeken az elektronikus készülékeken juttatják el üzeneteiket a célközönséghez, és mérik a hatásukat.

A digitális marketing b2b (business-to-business, vállalkozások között) és b2c (business-to-customer, vállalkozások és magánügyfelek között) egyaránt működik, de a kettő jelentősen különbözik egymástól.

A b2b klienseknél hosszabbak a döntéshozási folyamatok, tovább tart az értékesítés. A kapcsolatépítési stratégiák jobban működnek, míg a b2c ügyfelek gyorsabban reagálnak, de őket inkább rövidtávú ajánlatokkal, üzenetekkel célozzák meg. A b2b tranzakciók a logikán és tényeken alapulnak, míg a b2c ügyfeleknél fontosabb az emocionális szempont, hogy örüljenek a vásárlásnak. A b2b-nél általában egynél több személy inputjára van szükség, a döntéshez vezető marketinganyagok letölthetők megoszthatók, míg a b2c ügyfelek jobban szeretik a márkát képviselő egyetlen személlyel folytatott – gyors – kommunikációt. Természetesen akadnak kivételek is: minél értékesebb a termék, a b2c világában is annál nagyobb szükség mutatkozik az informatív és komoly marketingtartalmak iránt.

dm.jpg

A digitális marketing több formája létezik, a célnak megfelelően, az online médián többféle interakció kivitelezhető. A keresőmotor-optimalizálás „weboldalak keresőmotorok számára történő vonzóvá tételének művészete és tudománya.” Olyan tényezőkön alapul, mint a tartalomminőség, a felhasználói elkötelezettség szintje, a mobileszközökkel való magas szintű kompatibilitás, a linkek száma és minősége. Fontos szerepet játszik a tartalommarketingben, releváns és értékes tartalmak célközönséghez való eljuttatásának stratégiájában. A közösségimédia-marketing a legnépszerűbb platformokon (Facebook, Twitter - azaz most már X, Instagram, YouTube, LinkedIn stb.) történő, a márkát megismertető, promótáló interakció. A kattintásonkénti fizetéssel működő marketing lényege, hogy a platformon megjelenik egy, minden egyes kattintásánál pénzt generáló hirdetés. A natív reklám álcázott marketing, beolvad a környező tartalomba, kevésbé vagy egyáltalán nem tűnik reklámnak. Az e-mail marketing pofonegyszerű: promóciós üzenetet küldünk, és bízunk benne, hogy a címzett rákattint. Persze nem árt, ha személyre szabjuk, pontosítjuk, milyen elektronikus levelekre számíthat az előfizető, aki bármikor lemondhatja előfizetését. A partnerprogram (affiliate marketing) során a terméket, szolgáltatást árusító partner jutalékot kínál a vevőket közvetítő partnereknek. A marketingautomatizálás a hirdetést erősítő, hatékonyabbá és relevánsabbá tevő szoftverek bevonása a kampányba.

dm0.jpg

A digitális marketingnek számos előnye van: földrajzilag nem korlátozott, nagyobb területek megcélozhatók, költséghatékony, az eredmények könnyebben számszerűsíthetők, egyszerűbb a személyre szabás, valósidejű és személyes a kommunikáció, a tartalom megtekintése után az ügyfél azonnal léphet az online térben, azaz megvásárolhatja a terméket.

A digitális marketing mára a vállalati üzleti stratégiák egyik főpillérévé vált, és a jövőben még fontosabb lesz.

dm3.jpg

Előnyei mellett megvannak a hátrányai, veszélyei is. Például marketingesek is használhatnak mesterségesintelligencia-módszerekkel generált kamu közösségimédia-személyeket termékek népszerűsítéséhez – a deepfake jelenség ebbe a közegbe is beszivárgott. A platformokon hemzsegnek a vonzó küllemű eladóbotok, a válaszokat az adott cég sales-részlegéhez továbbító kamuprofilok. A LinkedIn 2021 első felében 15 millió kamuprofilt távolított el – nem mindegyik, de nagyon sok folytatott marketingtevékenységet. És ez csak egy példa.

A közösségi média korában cégek jóval több lehetséges fogyasztóhoz juttatják el termékeiket, mint amire a sales-részleg képes. Digitális marketing nélkül ez lehetetlen lenne.

Frissítve: 2023. december 28.

Crowdsourcing: a közösség bölcsessége

Mi a közös a Wikipédiában, az Amazon Mechanikus Törökjében és a Kickstarterben?

Az, hogy mindhárom a „közösség bölcsességén” alapul. A 2000-es évek első felében, a web második nagy hullámának, a 2.0-nak az egyik legmarkánsabb jelensége a közösségi ötletbörze, ismertebb, angol nevén crowdsourcing (ekkor jelentek meg az első közösségimédia-kezdeményezések is.). Három példánk ezt a jelenséget szemlélteti.

Lényege szolgáltatások, ötletek, tartalmak stb. nagy létszámú csoportoktól történő összegyűjtése. Jellemző módon a „tömeg” (crowd) csak az ötletelés tárgyán keresztül alkot közösséget, és teljesen mindegy, hogy a közösség tagjai ismerik egymást, vagy sem. Közös vonásuk, hogy nincs közük az eredményt kereső szervezethez, vállalkozáshoz. Általában fogyasztók, online csoportok, és nem az érintett szervezet alkalmazottai, részvényesei, tulajdonosai.

A mai közösségi ötletbörze általában (de nem kötelezően) digitális platformokon történik, a résztvevők ott osztják meg egymás között a kiszervezett munkát. Maga a kifejezés a „tömeg” és a kiszervezés, az outsourcing (például munkáé egy másik országba) szavak összevonása, csak az érintettek ezúttal kevésbé specifikus, nyilvánosabb csoportok. 2006-ban, egy Wired-cikkben használták először, a szerző (Jeff Howe) projektekben együttműködni szándékozó személyek összekapcsolásának új módját értette rajta, és az online világban vált népszerűvé.

cr0_1.jpg

Az első ismert közösségi ötletbörze a kínai Tang-dinasztia (619-907) nevéhez fűződik, aztán 1567-ben II. Fülöp spanyol király pénzjutalmat ajánlott fel tengeren lévő hajók pontos tartózkodási helyének, hosszúsági fokának kiszámításáért. 1783-ban a tragikus sorsú XVI. Lajos kitüntetésben kívánta részesíteni azokat, akik a tengeri só lebontásával a legegyszerűbb és leggazdaságosabb módszerrel állítanak elő lúgot. 1849-ben a Smithonian Intézet meteorológiai projektjében – ebből alakult ki később a Nemzeti Időjárás Szolgálat – 150 önkéntes amerikai időjárás-megfigyelő szedegette össze a telegráffal egybegyűjtött adatokat, ezek alapján országos időjárás-térkép készült, az információkat pedig közkinccsé tették. Az 1884-ben megjelent Oxford English Dictionary részben szintén közösségi ötletbörzén alapult, de Linus Torvalds 1991-es felhívása, hogy programozók a világ bármely pontjáról járuljanak hozzá a Linux operációs rendszer fejlesztéséhez, ugyancsak a web előtti crowdsourcing esete, és az offline példák sokáig sorolhatók.

Az ezredforduló után gyorsan népszerűvé vált a közösségi ötletbörze, több fajtája alakult ki.

Egyik legismertebb a közösségi finanszírozás (crowdfunding), amikor személyek – a sikeresség függvényében, a hozzájárulás mértéke alapján későbbi jutalmazásban részesülő – széles csoportja anyagilag támogat projekteket. Tipikus példája a „kreatív törekvések megvalósulásában segítő” globális Kickstarter platform. 2009 áprilisában indult, 2021 júliusáig 205 ezer projektre, 20 millió személytől közel hatmilliárd dollárt kalapoztak össze.

A „közösség bölcsessége” azokra a kezdeményezésekre vonatkozik (Yahoo Answers stb.), amikor vállalatok szélesebb csoportoktól várnak komplex témakörökben inputot, véleményeket.

A mikro-feladatvégrehajtás (microtasking) lényege, hogy nagyobb projekteket sok kis feladatra bontanak szét, és a feladatok végrehajtását közösségekre bízzák. A Starbucks 2014-ben például verseny keretében poharak tervezésére, majd szavazásra kérte a fogyasztókat.

A közösségi ötletbörze komoly haszonnal kecsegtet az összes olyan vállalat számára, amely meghatározott költségvetésből kíván komplex feladatokat elvégezni. Pluszelőnye még, hogy közösségek bevonásával, a fogyasztókat érdekeltebbé teszik az adott márka iránt, inkább a sajátjuknak érzik azt. Optimális esetben csökkennek a költségek, gyorsabban elvégzik a feladatot, jobb a minőség, rugalmasabb a munkavégzés. Bevett módszerek az ötlet-, innováció- és más versenyek, a virtuális munkapiacok, a nyílt online együttműködés és az adatadakozás.

cr2_1.jpg

Kereskedelmi platformok, mint az Amazon Webszolgáltatások által működtetett Mechanikus Török távoli „közösségi dolgozókat” alkalmazva végez el jelenleg számítógéppel kivitelezhetetlen „emberi intelligencia-feladatokat”, többek között speciális tartalmakat azonosítanak képeken, videókban, termékleírásokat készítenek, szokatlan kérdéseket válaszolnak meg.

cr1_1.jpg

A legismertebb közösségi ötletbörze a 2001-ben indult nonprofit Wikipédia. A hatalmas online enciklopédiát (a történelem legnagyobb referenciatárát, és egyben a jelenlegi tizedik legnépszerűbb honlapot) önkéntesek közössége nyílt együttműködéssel, wiki-alapú szerkesztőrendszerrel működteti. A szerkesztésből lényegében bárki kiveheti a részét, és az ismerettár ma már nagyon sok nyelven működik.

Frissítve: 2023. december 28.

Helyalapú technológiák: megmondja a telefonom, hogy hol vagyok

Mindenki használ GPS-t, telefonunk pedig folyamatosan tudja, merre tartózkodunk, egyes appok miatt állandóan nyomot hagyunk arról, hogy épp hol jártunk.

A helyalapú szolgáltatások mobileszközökön futó, az eszköz földrajzi adatait ismerő, geoadatokat gyűjtő alkalmazások. Ezeket az adatokat valósidőben, egy vagy több helykövető technológiával szedik össze.

Az adatok többféle forrásból gyűlnek egybe: globális helymeghatározó rendszer (GPS) műholdak, mobiltornyok és rövid hatótávolságú helymeghatározó jeladók szolgáltatják őket arról, hogy pont hol tartózkodunk. A technológiák legalább két évtizede beszerezhetők a kereskedelmi forgalomban, a geoadatokkal dolgozó alkalmazások és szolgáltatások viszont csak az utóbbi években, az androidos és az iPhone készülékek, tabletek és más okostelefonok tömeges elterjedésével váltak mainstreammé.

A GPS-t az USA Védelmi Minisztériuma fejlesztette és üzemelteti. Eredetileg katonai célokra készült, de sok más „hadi” technológiához hasonlóan, a hétköznapok sok területén használják. A globális műholdas navigációs rendszer a bolygó bármely pontján, napi huszonnégy órában működik. Földfelszínen, vízfelszínen vagy levegőben egyaránt képes a háromdimenziós helymeghatározásra, kifinomult mérési módszerekkel a milliméteres pontosságot is eléri valósidőben. Ezeken az adatokon csomó szolgáltatás alapul, amelyeket a GPS-nek hála élvezhetünk. A GPS-t orosz, európai és kínai rendszerek egészítik ki.

hel3.jpg

A GPS az egyik legalkalmasabb technológia mobileszközök, mobil hardver követésére. Más megoldások szintén alkalmazhatók helymeghatározásra: vezeték nélküli hozzáférési pont, mobiltorony háromszögezése, rádiófrekvenciás azonosítás (RFID), bluetooth jeladók.

A helyalapú szolgáltatások két csoportra oszthatók, használatukhoz négy alapkomponens szükséges: helyalapú szolgáltatást használó alkalmazás, geoadatokat gyűjtő helymeghatározó mechanizmus, adatok fogadására és továbbítására alkalmas mobilhálózat, a földrajzi adatok alapján a felhasználónak releváns adatokat szolgáltató, távoli szerveren futó elemzőszoftver. 

Az első csoportba az úgynevezett pull típusúak tartoznak. Az alkalmazás felhasználója kezdeményezi a helyalapú szolgáltatásokat. A lekérdezés egyik példájaként mobil térképalkalmazást keresünk, és mondjuk, a Waze-zel megtaláljuk a legközelebbi pénzkiadó automatát. Egyes alkalmazások lehetővé teszik, hogy különféle helyeken – éttermekben, műemlékeknél, klubokban stb. – bejelentkezzünk (Swarm, Google Maps stb.).

A push típusúak lényege, hogy az alkalmazás meghatározott, vagy rendszeres időközönként elindítja a helymeghatározást, majd az adott hellyel kapcsolatos releváns infókat ismertet a felhasználónak vagy a rendszernek. A közelség-alapú marketing ilyen szolgáltatás: miután az app adott kiskereskedés, üzlet közelében sikeresen azonosítja a felhasználót, az illető hirdetést vagy kupont kap.

A hatályos törvények szerint a helyalapú szolgáltatásokhoz kell a felhasználó engedélye, hogy mi magunk döntsünk a szolgáltatás használatáról. Ez azt jelenti, hogy általában bekapcsoljuk az alkalmazást, és elfogadjuk, hogy a szolgáltatás ismeri a készülék helyszínét. Meghatározhatjuk, hogy az app gyűjthet-e, és ha igen, mikor gyűjthet adatokat, az iPhone Location Service-t melyik alkalmazással működtetjük stb. A helyalapú szolgáltatások androidos eszközökön is hasonlóan funkcionálnak.

hel1.jpg

Változatos célokra használhatók: navigálásra és utazási információk, például valósidejű útinform-adatok gyűjtésére, áruházak és szolgáltatók lokalizálására, flotta és mobil munkaerő menedzselésére, raktárkészlet-ellenőrzésre, lopás-, csalás-megelőzésre, közelség-alapú marketingre, útmenti segélynyújtásra, megfigyelésre, közösségi hálózatokhoz, kiterjesztett valósághoz (AR).

Ezeknek a szolgáltatásoknak egyértelműek az előnyei, de a használatuk biztonsági kockázatokat is felvet. Teljesen evidens, hogy könnyebben követhetők vagyunk, ami általában az engedélyünk nélkül történik meg. Célszerű az engedélyezés korlátozása, és – ha pont nincs szükségünk rá – az alkalmazás kikapcsolása, Az illetéktelen kezekbe került adatokat bűnözők használhatják, de azt sem szeretjük, ha kéretlen reklámokkal bombáznak. Ezért sem árt meggyőződni arról, hogy az app tulajdonosa nem értékesít-e úgy helyalapú adatokat, hogy kellemetlenségünk, kárunk származna belőle.

Frissítve: 2023. december 27.

Kvantumkriptográfia, a szuperbiztos titkosítás, de meddig?

A titkosítás vagy adatok kódolt szöveggé alakításának tudománya nem újkeletű, ősidők óta foglalkoznak vele. Titkosított adatokat, szövegeket csak a megfelelő kulccsal rendelkező személyek képesek elolvasni.

A számítógépek elterjedésével, az információs társadalom kialakulásával a titkosítás nagyságrendekkel magasabb szintre emelkedett, sokkal komplexebbé vált, mint volt valaha is. A diszciplína egyik legizgalmasabb területe a kvantummechanika alapállításait, lehetőségeit is kihasználó módszerekkel dolgozó kvantumkriptográfia.

A következő állításokról van szó:

  • Az univerzumot alkotó részecskék eredendően bizonytalanok, és egyidejűleg több helyen vagy létállapotban lehetnek.
  • A fotonok véletlenszerűen keletkeznek két kvantumállapot egyikében.
  • Kvantumtulajdonságok nem mérhetők anélkül, hogy ne zavarnánk vagy változtatnánk meg azokat.
  • Egy részecske néhány kvantumtulajdonsága másolható, de a teljes részecske nem.

A kvantumszámítógépek fejlesztése csak az elmúlt tíz évben gyorsult fel – bár még mindig nincs kereskedelmi forgalomban beszerezhető, szélesebb rétegek számára elérhető termék, és kérdéses, mikor lesz –, a kvantumkriptográfia viszont évtizedek óta jelen van, egyáltalán nem nevezhető újnak. Az ezekkel a módszerekkel történő titkosítás nagy előnye, hogy a kvantumállapotok nem másolhatók le, tehát a támadás kvázi lehetetlen. Amikor a hacker kiolvas egy állapotot, azzal egyben meg is változtatja azt, így pedig fény derül a behatolási kísérletre.

A kvantumkriptográfia vagy kvantumkulcs-elosztás fényrészecskék (fotonok) sorozatát használja az adatok egyik helyről a másikra, optikai kábelen keresztül történő átvitelére. A fotonok egy részének a tulajdonságait mérve, a méréseket összehasonlítva, a két végpont határozhatja meg a kulcsot, és hogy biztonságos-e használni.

A küldő szűrőn (vagy polarizátoron) keresztül továbbítja a fotonokat, és az véletlenszerűen megadja nekik a négy lehetséges polarizációs vagy bitmegjelölés egyikét: függőleges (1 bit), vízszintes (0 bit), 45 fok jobbra (1 bit), 45 fok balra (0 bit). A fotonok eljutnak egy „adóvevőhöz”, amely két (vízszintes/függőleges és átlós) sugárelosztót használ az egyes fényrészecskék „leolvasáshoz”, és ki kell találnia, hogy melyiket használja. A fotonok elküldése után a vevő közli a küldővel, hogy melyik elosztót az adott sorozat melyik fotonjához használta, majd a küldő ezeket az infókat összehasonlítja a szűrön/polarizátoron elküldött szekvenciákkal, hogy elküldje a kulcsot. A rossz elosztóval beolvasott fotonokat eldobják, és az így létrejött sorozat a kulcs. Ha a fotont valaki bármilyen módon leolvassa vagy lemásolja, megváltozik az állapota, más lesz a kulcs, és a végpontok észlelik a változást. Azaz, a behatoló semmit nem tud úgy tenni, hogy a rendszer ne „venné észre.”

kk0.jpg

Klasszikus számítógépes titkosítási módszerekkel összehasonlítva: míg a komplex matematikai egyenletek feltöréséhez a mai gépeknek hónapok, sőt évek kellenek, addig a kvantumgépeken futó algoritmusok percek alatt képesek rá.

A mostani kvantumkódok viszont – egyelőre – feltörhetetlenek.

kk.jpg

Bankunkban és más vállalkozásokban megbízunk az online tranzakciók során, hogy kártyaadataink és más kényes információk biztonságban maradnak. De mi lesz akkor, amikor a mostani titkosítási technikákat használó szervezetek nem tudják többé garantálni privát adataink biztonságát?

Cyberbűnözők folyamatosan próbálkoznak a titkos adatokhoz való hozzáféréssel, viszont amikor valóban működni fognak a kvantumszámítógépek, ezek az információk védtelenebbé válnak, könnyebben meghackelhetők lesznek. A kvantumkriptográfia egyelőre védelmet nyújt, a váltás után viszont már a kvantumkomputerekről indított támadásokkal szemben is megóvó posztkvantumkriptográfiai megoldásokra lesz szükségünk. Ez egy hosszútávú probléma, de már most fel kell készülnünk rá, mert a cyberbűnözők is ezt teszik. Jó hír, hogy már most is léteznek működő opciók.

Frissítve: 2023. december 27.

Miben különböznek a hordozható és a viselhető technológiák?

A vezeték nélküli kommunikáció elméleti alapjait Nikola Tesla dolgozta ki az 1890-es években, az első vezeték nélküli jeleket pedig a rádió apjaként ismert Guglielmo Marconi továbbította 1894-ben, két mérföld távolságra.

A kormányzati használat szintjén az első világháborúig visszavezethető, mára az információs technológiával összeintegrálódott mobil technológia – a mobil kommunikáció és a mobil számítástechnika – azóta teljesen megváltoztatta az emberi társadalmakat. Ez az integráció tette lehetővé a „bármikor, bárhol” online létet, megteremtve, hogy folyamatosan új, a társadalmi, érintkezési és szerveződési formákat megváltoztató lehetőségek jelenjenek meg.

Ma már a mobiltechnológia és az internet az ICT fejlődésének legfontosabb hajtóerői. Minden mobil: interakció, kormányzás, kereskedelem, és a kapcsolódó szolgáltatások, például a városvezetés is egyre inkább az. A trend percről percre, évről évre erősödik, ez már az innováció 2.0 kora, és a mobil megoldások talán a digitális szakadék felszámolásában is segítenek.

w0.jpg

A mobil technológiák fejlődése a magunkkal hordozható (portable) technológiák diverzifikációját eredményezte. Manapság szinte minden infokom eszközt, legyen szó számítógépről, számítógépként funkcionáló tabletről, okostelefonról, GPS navigációs készülékről, játékkonzolról, magunkkal vihetünk bárhova.

A hordozható technológiák dominanciájában kulcsfontosságú volt az okostelefonok megjelenése, a legtöbb ilyen jellegű megoldás valamilyen szinten ehhez a készülékcsaládhoz kapcsolódik, belőle nőtt ki. Több szakértő szerint a mobil számítások és a vezeték nélküli hálózatok jelentik a komputertechnológia jövőjét.

Ezekkel a tendenciákkal összenőtt a szintén hordozható, de nemcsak hordozható, hanem magunkon viselhető (wearable) eszközök diadalútja is. Kiegészítőként, ruhába varrt/beágyazott, testünkbe implantált vagy akár a bőrre tetovált gépecskékről van szó. Praktikus felhasználási célokat szolgálnak, mikroprocesszorok működtetik őket, adatokat fogadnak és küldenek az interneten.

Gyors elterjedésük következményeként, a viselhető technológiák a dolgok internetének (Internet-of-Things, IoT) az „avantgarde-ja.”

Hasonló eszközöket egyébként régóta használ az emberiség. Szemüvegek már a tizenharmadik században is léteztek, a karon való viseléshez elég kicsi időmérőket pedig 1500 óta hordanak. Modern változataik két kulcsszempontból különböznek tőlük: mindegyikben van mikroprocesszor, és képesek internetre kapcsolódni.

A viselhető technológiák első nagy hulláma a rengeteg fogyasztót elérő fitnesz-tevékenységeket követő kütyük voltak, majd jöttek az okosórák, képernyővel és egyre robusztusabb mobil alkalmazásokkal. Aztán a bluetooth-os headsetek, a netkapcsolatos szemüvegek következtek, mindegyikkel fogadhatunk és küldhetünk adatokat vezeték nélküli és mobil hálózatokon. A fejlesztésekből az infokom egyik motorja, a játékipar sem maradt ki, magunkon viselhető technológiáik, headsetjeik a kiterjesztett és/vagy a virtuális valóság élményét kínálják.

Egyes technikák a bíztató kezdet ellenére, kudarcot vallottak. Legékesebb példájuk az internetre kapcsolódó, csodaszemüvegként beharangozott Google Glass. Divatos és praktikus kiegészítőnek szánták, nem vált be, az utóbbi években speciális mérnöki alkalmazásával próbálkoznak.

A jelen trendje a fogyasztói hasznosulásról a speciálisabb és gyakorlatiasabb megoldásokra való fókuszváltás. Kulcsok és jelszavak mikrochipes beültetésekkel válthatók ki – az ujj végébe implantált, rövid hatótávú NFC kommunikációt vagy rádiófrekvenciás azonosítást (RFID) használó chip hasonlít az elcsavaró kutyusokat, cicákat nyomon követő technikákhoz.

w1.jpg

Ma az egészségügyben találkozunk a legfontosabb viselhetőtechnológia-alkalmazásokkal: az emlőrák korai jeleit kimutató, az infót további elemzésre elküldő intelligens tapasszal, idős személyeket figyelő és a kezelőorvost baj esetén figyelmeztető pántokkal, a szív- és az agytevékenységet monitorozó, ideiglenes okos tetkóval, a Parkinson-kór szimptómáit kutató okosórával, a levegőminőséget és a légszennyezést elemző kütyükkel stb.

Óriási a potenciák a hamarosan a hétköznapok összes aspektusát meghatározó technológiacsaládban.

Frissítve: 2023. december 27.

Az operációs rendszer a számítógép lelke

Az operációs rendszer (OS) a számítógépünkön futó legfontosabb program; kezeli a gép memóriáját, a rajta lévő összes programot és hardvert, és nem utolsó sorban, lehetővé teszi a felhasználó számára, hogy a komputerrel – a gép nyelvének ismerete nélkül – kommunikálni tudjon. Interfészként működik köztünk és a hardver között.

Operációs rendszer nélkül bármelyik számítógép, mobil készülék használhatatlan.

Általában több, különféle program fut egyszerre a gépen, és mindegyiknek hozzá kell férnie a központi feldolgozóegységhez (CPU), a memóriához és a tárházhoz. Mindezt az OS koordinálja, és biztosítja, hogy az összes program megkapja, ami kell neki.

Egy OS szoftver folyamatokat kezel, azaz, létrehoz és töröl, szinkronizáló és kommunikációs mechanizmusokat szolgáltat közöttük. Memóriamenedzselő modulja memóriaterületeket foglal le és szabadít fel, ha a programok erőforrásokat igényelnek. A fájlkezelés a fájlokkal kapcsolatos összes tevékenységre vonatkozik: biztosítja a tárolásukat, garantálja a több szinten történő tárolást, visszakereshetőségüket, elnevezésüket, megosztásukat és védelmüket. Működteti a géphez kapcsolódó eszközöket, követi a különféle feladatokra fordított időt, erőforrásokat, koordinálja a számítógépes rendszer felhasználóinak szoftvereit, processzorok hálózaton belüli kommunikációját, értelmezi az utasításokat, biztonsági modulja megvédi a behatolóktól és malware-ektől a gépen lévő adatokat, információkat.

os0.jpg

Az első operációs rendszereket az 1950-es években fejlesztették a szalagos tárolás kezelésére. Az első OS-t a General Motors Kutatólaboratórium az évtized elején implementálta saját IBM 701-e számára. Az OP-rendszerek a hatvanas évek közepétől kezdtek el lemezeket használni, majd az évtized végén kifejlesztették a Unix OS első változatát. A Microsoft első OS-e az 1981-es DOS volt. A cég előtte vásárolta meg a 86-DOS szoftvert egy Seattle-illetőségű vállalattól. A máig népszerű Windows első változata 1985-ben jelent meg, miután grafikus felhasználói felületet (GUI) fejlesztettek, és társítottak össze az MS-DOS-szal.

Az operációs rendszereket általában előzetesen telepítik a megvásárolt számítógépekre. Legtöbben a géphez járó OS-t használják, de lehetőségünkben áll annak frissítése, sőt, akár másra is válthatunk. A maiak mind használnak GUI-t, ez biztosítja, hogy az egérrel ikonokra, gombokra és menükre klikkeljünk, és hogy grafika-szöveg kombinációként, minden egyértelműen megjelenjen a kijelzőn.

Ahány OP-rendszer, annyiféle GUI. Mindegyik másként néz ki, más a felhasználói élmény, és ha a megszokottról átváltunk egy másikra, furának érezhetjük először. Viszont az összes mai operációs rendszer közös vonása, hogy könnyen lehet kezelni őket, és mindegyik ugyanazokon az elveken alapul.

Ma főként öt OP-rendszert használunk: Microsoft Windows, Mac OS, Linux, valamint a két fontos mobil, az Android és az iOS.

os1.jpg

A Microsoft az 1980-as évek közepén állt elő és hódította meg a világot a Windows-szal. Azóta sok-sok változata ismert, egyeseket jobban, másokat kevésbé szerettünk. A Windows általában a legtöbb új PC-re fel van telepítve, és ez a tény is hozzájárulhatott, hogy a Washington állambeli Redmond-székhelyű cég terméke a földkerekség legnépszerűbb operációs rendszere.

A korábban OS X néven futott Mac OS az Apple fejlesztése, az összes Macintoshra, Mac-re előre telepítik. Világviszonylatban a felhasználók alig tíz százaléka használja, míg a Windowst több mint nyolcvan. Ez az egyik oka az Apple számítógépek magasabb árának.

A Linux nyílt forrású operációsrendszer-család, azaz bárki bárhonnan módosíthatja, megoszthatja másokkal. Ez különbözteti meg a védett szoftverektől (Windows, Mac OS), mert azokon csak a fejlesztőcég változtathat. A Linux nagy előnye még, hogy ingyenes, és sok változat közül választhatunk. Mivel nagyon könnyű egyedire kialakítani – „személyre szabni” –, ezért a legtöbb szerver Linuxon működik. A felhasználók mindössze két százaléka használja.

os.jpg

A desktop- és a laptop-gépekre írtak mellett mobil készülékekre (okostelefon, tablet, okosóra stb.) szintén fejlesztenek OP-rendszereket. A két legismertebb az Apple iOS és a Google Android. Ezek a rendszerek nem annyira komplexek és teljesek, mint a komputerekre kitaláltak, de ennek ellenére nagyon változatos tevékenységeket végezhetünk velük.

Frissítve: 2023. december 27.

A tudatfeltöltés technikái

Az emberi tudat merevlemezre, virtuális térbe, azaz digitális környezetbe történő feltöltését, a teljes agyemuláció (száz százalékos utánzás) néven is ismert ködös jövőbeli „halhatatlanság-opciót” úgy képzeljük el, hogy az agy komplett fizikai szerkezetét egy orvos olyan akkutátusan leszkenneli, hogy mentális állapotokról, köztük a hosszútávú memóriáról és az „énről” is pontos utánzat lesz belőle, amelyet számítógépre küldenek, vagy másolnak.

Ezt követően a számítógép szimulációt futtat le az agy információfeldolgozásáról. A másolat ugyanúgy reagál majd mindenre, mint az eredeti. Tudatos, érző lényként működik.

Állatok agyának feltérképezésével és szimulálásával évek óta foglalkoznak, az egyre gyorsabb szuperszámítógépek kiváló eszközök hozzá. A dinamikusan működő testrészből való információkinyeréshez több infokommunikációs technológiát, köztük a virtuális valóságot és az agy-számítógép interfészeket is felhasználják.

A tudatfeltöltéshez szükséges eszközök egy része már létezik, vagy aktívan fejlesztik, mások viszont inkább csak spekuláció tárgyai, ugyanakkor technikailag – elvben – majdnem mind kivitelezhető.

mu.jpg

A tudatfeltöltésre két megoldás létezik: az első másolás és feltöltés, a második másolás és törlés. Az idegsejteket lépésről lépésre „szedik ki”, és másolják digitális közegbe, amíg az eredeti organikus agy meg nem szűnik létezni, és az azt emuláló komputerprogram át nem veszi a test feletti vezérlést. Ez a destruktív eljárás.

A másik esetben az orvos a biológiai agy legfontosabb jegyeit szkenneli le, térképezi fel, ezeket az információállapotokat tárolják, másolják számítógépes rendszerre vagy számításokat végző más eszközre. A tudatfeltöltés több esetében a biológiai agy aligha éli túl a folyamatot, esetleg eleve szándékosan megsemmisítik.

A virtuális valóságban vagy más szimulált világban lévő emulált elmét anatómiai pontosságú, szimulált 3D testmodell támogatja. Alternatíva lehet, hogy a feltöltött agy számítógépen van, vagy távolból vezérelt géphez, például, de nem szükségszerűen humanoid robothoz, vagy biológiai, esetleg kibernetikus testhez (cyborghoz) kapcsolódik. Az „elmefájl” másolatok a csillagok közötti űrutazásnál, vagy esetleges globális katasztrófa utáni kollektív túlélésnél is fontos szerepet játszhatnak. Utóbbi esetben ők a letűnt emberi civilizáció mementói.

A teljes agy emulálása egyes futurológusok szerint a számítógépes idegtudomány és a neuroinformatika logikus végkifejlete. Egyelőre mindkét terület kifejezetten orvosi célból foglalkozik az agy szimulálásával. A mesterségesintelligencia-kutatásban, az emberrel legalább azonos tudatszintű általános MI, vagy a gyengébb szuperintelligencia egyik megközelítéseként tanulmányozzák a tudatfeltöltést. Ne feledkezzünk meg arról a tényről, hogy egy számítógép-alapú intelligencia még akkor is gyorsabban gondolkodik, mint a biológiai ember, ha nem intelligensebb nála. Minél több a feltöltött elme, annál közelebb a Szingularitás – vallja több transzhumanista.

Az idegtudományban konszenzus van arról, hogy az elme az ideghálók által végzett feldolgozófolyamatokból előbukkanó – emergens módon kialakuló – valami. Ez a valami sok fontos funkcióért, például a tanulásért, az emlékezésért és a tudatosságért felel. Az agyban lejátszódó tisztán fizikai, biokémiai és elektromechanikus folyamatok határozzák meg, alkalmazható szabályok vezérlik. A tudatosság a természet része, „csak” a matematikától, logikától, a fizika, a kémia és a biológia hiányosan ismert törvényeitől függ, tehát nincs benne semmi mágikus, túlvilági minőség.

A tudatfeltöltés csak akkor valósítható meg, ha az elme tényleg elektromechanikus rendszer, számítógép. Már az emergens módon kialakuló tudat esetében is kétséges a végeredmény, a vitalista, természetfeletti valóságot feltételező megközelítések pedig eleve kizárják az agy „számszerűsíthetőségét.” De ha a tudatfeltöltés tényleg megvalósítható, akkor is ma még sci-fi kategóriába tartozó számítási kapacitás kell hozzá.

Frissítve: 2023. december 27.

süti beállítások módosítása