To forum używa ciasteczek.
To forum używa ciasteczek do przechowywania informacji o Twoim zalogowaniu jeśli jesteś zarejestrowanym użytkownikiem, albo o ostatniej wizycie jeśli nie jesteś. Ciasteczka są małymi plikami tekstowymi przechowywanymi na Twoim komputerze; ciasteczka ustawiane przez to forum mogą być wykorzystywane wyłącznie przez nie i nie stanowią zagrożenia bezpieczeństwa. Ciasteczka na tym forum śledzą również przeczytane przez Ciebie tematy i kiedy ostatnio je odwiedzałeś/odwiedzałaś. Proszę, potwierdź czy chcesz pozwolić na przechowywanie ciasteczek.

Niezależnie od Twojego wyboru, na Twoim komputerze zostanie ustawione ciasteczko aby nie wyświetlać Ci ponownie tego pytania. Będziesz mógł/mogła zmienić swój wybór w dowolnym momencie używając linka w stopce strony.

Ocena wątku:
  • 1 głosów - średnia: 5
  • 1
  • 2
  • 3
  • 4
  • 5
Komputer na biurku...
#1
Przy okazji dyskusji na innym forum, przypomniało mi się coś z życia zawodowego, otóż przyszedłem do pracy, uruchomiłem komputer, na nim pulpit zdalny a tam pewien program... - i w tym momencie pojawiło się takie pytanie: po kiego grzyba mi w tej chwili ten komputer na biurku, przecież wystarczyłyby mi tylko trzy urządzenia: klawiatura, myszka i monitor, plus jakiś modem wymiany danych...?

Zakładam, że ktoś musiał rozważać ideę "zdalnych komputerów centralnych" bez lub z minimalną ilością "komputerów lokalnych", ale po za tym, że przyszło mi to do głowy niemal znikąd, to nie spotkałem się z takim pomysłem - czy gdyby komputeryzacja poszła innym torem ewolucji, to nikt w domu nie miałby "komputera na biurku", bo ten stałby sobie zupełnie gdzie indziej, jak elektrociepłownia czy elektrownia? A może tak kiedyś będzie? Albo w ogóle tak nie może być z jakichś powodów...?
Odpowiedz
#2
Rowerex napisał(a):po kiego grzyba mi w tej chwili ten komputer na biurku, przecież wystarczyłyby mi tylko trzy urządzenia: klawiatura, myszka i monitor, plus jakiś modem wymiany danych...?
Kup pan ciastko.

Rowerex napisał(a):Zakładam, że ktoś musiał rozważać ideę "zdalnych komputerów centralnych" bez lub z minimalną ilością "komputerów lokalnych"
Przecież od tego się zaczeło, kiedy ludzie jeszcze wierzyli, że nie ma i nigdy nie będzie alternatywy dla elektroniki lampowej. Kup pan Eniaka?

Rowerex napisał(a):A może tak kiedyś będzie?
Trzeba by odrzucić ideę, że każdy człowiek może mieć taką moc obliczeniową, jak instytucja państwowa, jeśli tylko nauczy się programować. Zgoda, to jest mocno trzepnięta idea, bo ludziom się generalnie nie chce, albo nie potrafią sobie zorganizować czasu wolnego. Ale ogólnie bardzo dużo bardzo lewicowych tuzów informatyki chciałoby Cię zagryźć w tym momencie, że chcesz ułatwiać Kapitanowi Państwo kontrolę nad populacją. Power to the people etc.
In my spirit lies my faith
Stronger than love and with me it will be
For always
- Mike Wyzgowski & Sagisu Shiro
Odpowiedz
#3
Rowerex napisał(a): Przy okazji dyskusji na innym forum, przypomniało mi się coś z życia zawodowego, otóż przyszedłem do pracy, uruchomiłem komputer, na nim pulpit zdalny a tam pewien program... - i w tym momencie pojawiło się takie pytanie: po kiego grzyba mi w tej chwili ten komputer na biurku, przecież wystarczyłyby mi tylko trzy urządzenia: klawiatura, myszka i monitor, plus jakiś modem wymiany danych...?

Zakładam, że ktoś musiał rozważać ideę "zdalnych komputerów centralnych" bez lub z minimalną ilością "komputerów lokalnych", ale po za tym, że przyszło mi to do głowy niemal znikąd, to nie spotkałem się z takim pomysłem - czy gdyby komputeryzacja poszła innym torem ewolucji, to nikt w domu nie miałby "komputera na biurku", bo ten stałby sobie zupełnie gdzie indziej, jak elektrociepłownia czy elektrownia? A może tak kiedyś będzie? Albo w ogóle tak nie może być z jakichś powodów...?


Przecież takie rozwiązania już są. Przykładowo Krakowska AGH ma część pracowni dydaktycznych opartych o ten model. W sali są tylko monitory i terminale dostępowe a wszystko obsługuje jeden z ich dużych komputerów na którym odpalone są maszyny wirutualne z jakimiś Windowsami obsługujące terminale w pracowniach. Z terminala logujesz się do wirtualnej maszyny pracującej na tym dużym komputerze i korzystasz tak jak ze zwykłego komputera.

Przykładem takiej usługi w ograniczonym zakresie jest Gforce Now (dzięki któremu możesz przykładowo odpalić Cyberpunk2077 nawet na telefonie komórkowym czy starym kompie) czy też (zwijająca się) Stadia. Więc podejrzewam, że jedynym ograniczeniem na ten moment abyś mógł taką usługę "komputera chmurowego" sobie wykupić jest zapotrzebowanie rynkowe i opłacalność jego wprowadzenia.
"Wkrótce Europa przekona się, i to boleśnie, co to są polskie fobie, psychozy oraz historyczne bóle fantomowe"
Odpowiedz
#4
Faktycznie, większość publiczności kupuje maszyny z dobrymi procesorami i kartami, żeby sobie poczatować, obejrzeć filmik z kotkami czy pograć w pasjansa.
To tak, jakby kupować Ferrari, żeby zawieść dzieciaki do przedszkola za rogiem.
Ale dostępowy "terminalowy" dostęp do szybszych maszyn jest jak najbardziej możliwy.

Moja żona w firmie pracuje na takim terminalu, gdzie główny serwer i program jest ch... wi gdzie.
A znajoma, która robi jakieś apki w branży medycznej, też działa zdalnie na serwerze gdzieś w Kaliforni.
W momencie, kiedy sieci przyspieszają, nie ma żadnych przeciwwskazań, żeby 99% rzeczy robić w takim trybie.
A nas Łódź urzekła szara - łódzki kurz i dym.
Odpowiedz
#5
Nie mam biurka....
Duży uśmiech Nieśmiały
„W okopach nie ma ateistów” – to nie jest argument przeciwko ateizmowi; to argument przeciwko okopom…...
Autor: James Morrow
Odpowiedz
#6
Koncepcja, o której mówisz nazywa się „terminal” i jest starsza niż koncepcja „desktop computer” (czyli komputera w całości znajdującego się na biurku).

Jeśli jednak terminal ma być podłączony do sieci Internet, to taki terminal praktycznie musi być, sam w sobie, komputerem. Musi posiadać przynajmniej tyle „inteligencji”, by obsługiwać stos TCP/IP. Tę obsługę zaś najprościej zaimplementować na sprzęcie, który jest Turing-kompletny. Voila — mamy komputer.

Jeśli chodzi o „ewolucję” to chyba nie mogło to z przyczyn ekonomicznych pójść inaczej. Tzn. mamy niejako trzy fazy:

1. Faza mainframe’ów — jeden wielki, drogi komputer, do którego przyczepia się kilka tańszych terminali. Terminale służą do I/O, a liczy mainframe.
2. Faza desktopów — komputery stają się tańsze, ale sieć ma bardzo niską przepustowość. Więc większość obliczeń wykonuje komputer na biurku.
3. Faza chmury — komputery są jeszcze tańsze, a sieć bardzo szybka. Komputer na biurku, lub w kieszeni, choć jest czasem potężniejszy niż pierwsze mainframe’y to coraz bardziej spełnia rolę jedynie terminala. Coraz więcej obliczeń wykonuje się „w chmurze”, czyli nie wiadomo nawet gdzie.

Oczywiście te fazy czasowo zachodzą na siebie. Nadal mamy superkomputery, które coś tam bardzo skomplikowanego liczą w trybie wsadowym, ale ich zastosowania są węższe, niż u początków komputeryzacji. Nadal oczywiście odpalamy soft 100% lokalnie, ale coraz więcej usług wymaga podłączenia do sieci.
Tress byłaby doskonałą filozofką. W istocie, Tress odkryła już, że filozofia nie jest tak wartościowa, jak jej się wcześniej wydawało. Coś, co większości wielkich filozofów zajmuje przynajmniej trzy dekady.

— Brandon Sanderson
Odpowiedz
#7
zefciu napisał(a): Jeśli jednak terminal ma być podłączony do sieci Internet, to taki terminal praktycznie musi być, sam w sobie, komputerem. Musi posiadać przynajmniej tyle „inteligencji”, by obsługiwać stos TCP/IP. Tę obsługę zaś najprościej zaimplementować na sprzęcie, który jest Turing-kompletny. Voila — mamy komputer.
Istnienie w terminalu komputera obsługującego protokół TCP/IP zostało wymuszone przez wymyślenie protokołu TCP/IP - peryferia końcowe, czyli klawiatura, myszka i monitor, go nie używają - gdyby im "przedłużyć kable" do centralnego komputera setki km dalej, to "komputer na biurku" byłby zbędny - tyle, że to rodzi problemy:

1) opóźnienia - klawiatura pisze de facto na zdalnym komputerze, a zdalny komputer przesyła obraz na monitor,
2) zabezpieczenie transmisji danych...,

Zakładając, że problemy 1 i 2 wymuszają jakiś rodzaj "maszyny cyfrowej" po stronie terminala, to kwestie są takie:

1) jak bardzo można uprościć "maszynę cyfrową" w terminalu,
2) czy użytkownik rzeczywiście musi tą "maszyną cyfrową" samodzielnie zarządzać, cokolwiek tam instalować, uaktualniać itp.
Odpowiedz
#8
Rowerex napisał(a): gdyby im "przedłużyć kable" do centralnego komputera setki km dalej
To uzależniałoby Cię od jednego dostawcy usług. Więc chmura, która co prawda tworzy oligopol jest jednak lepsza.
Cytat:1) opóźnienia - klawiatura pisze de facto na zdalnym komputerze, a zdalny komputer przesyła obraz na monitor,
Przy dzisiejszych prędkościach, samo pisanie w czasie rzeczywistym nie jest problemem. Ale rzeczywiście — efekty graficzne lepiej wygenerować lokalnie.
Cytat:1) jak bardzo można uprościć "maszynę cyfrową" w terminalu,
To już odpowiedział ErgoProxy — mikrokomputery pokroju RPi są już tak tanie, że nie ma w zasadzie sensu robić niczego tańszego.
Cytat:2) czy użytkownik rzeczywiście musi tą "maszyną cyfrową" samodzielnie zarządzać, cokolwiek tam instalować, uaktualniać itp.
Oczywiście nie. Ale maszyny których się samemu nie zarządza to coś dostępnego już w „świecie desktopu”. Natomiast możliwość zarządzania, instalowania, czy aktualizowania „z zewnątrz” jest konieczna, bo utknięcie z nienaprawialnym bugiem to jest relikt pierwszej fazy ery desktopu (maszyny typu C64 mające cały system operacyjny w nieedytowalnej pamięci ROM).
Tress byłaby doskonałą filozofką. W istocie, Tress odkryła już, że filozofia nie jest tak wartościowa, jak jej się wcześniej wydawało. Coś, co większości wielkich filozofów zajmuje przynajmniej trzy dekady.

— Brandon Sanderson
Odpowiedz
#9
zefciu napisał(a): To uzależniałoby Cię od jednego dostawcy usług. Więc chmura, która co prawda tworzy oligopol jest jednak lepsza.
Nie musi tak być - "komputer centralny" jest przenośnią - jeżeli go rozkawałkować i rozsypać po świecie, a kawałki i nazwać "serwerami świadczącymi usługi", to uzyskamy stan obecny - to tylko kwestia tego w którym miejscu schematu blokowego sieci ustawimy granicę pojęcia "terminal" - teraz z punktu widzenia domowych użytkowników i obecnego stanu techniki wydaje się ona być stawiana "za daleko" patrząc od strony podstawowych peryferiów - skutkiem tego przeciętni domownicy coraz częściej mają w domu "za dużo sprzętu", zwłaszcza tak upierdliwego w zarządzaniu jak "komputer z łindołsem".

Cytat:
Cytat:1) jak bardzo można uprościć "maszynę cyfrową" w terminalu,
To już odpowiedział ErgoProxy — mikrokomputery pokroju RPi są już tak tanie, że nie ma w zasadzie sensu robić niczego tańszego.
Piszemy o malinkach, bo wiemy że istnieją, wiemy jak wyglądają, bo muszą tak wyglądać, bo np. mnożą się standardy łączności bezprzewodowej i przewodowej z peryferiami... W pracy mam malinek na pęczki do zastosowań w robotyce - ich uniwersalność jest tu zaletą, bo nigdy nie wiadomo do czego zostaną zastosowane, ale tu też zdarzają się zastosowania "przesadzone" w których malinka to grubo "za dużo".

Cytat:Oczywiście nie. Ale maszyny których się samemu nie zarządza to coś dostępnego już w „świecie desktopu”. Natomiast możliwość zarządzania, instalowania, czy aktualizowania „z zewnątrz” jest konieczna, bo utknięcie z nienaprawialnym bugiem to jest relikt pierwszej fazy ery desktopu (maszyny typu C64 mające cały system operacyjny w nieedytowalnej pamięci ROM).
Taki przykład - operator i dostawca usług internetowo-multimedialnych ciągnie światłowód po jakimś osiedlu, a monterzy instalują ludziom podstawowe modemy, routery czy jak tam to nazywają, np. bezprzewodowe - i tak teoretycznie, to "naczelny domownik" mógłby się ograniczyć do połączenia z takim routerem klawiatur, myszek, monitorów (tablet to w zasadzie monitor) użytkowanych przez wszystkich domowników, bez potrzeby kupowania "komputerów z łindołsem" dla każdego z osobna... Zacząłby od swojego zestawu, a na nim skonfigurowałby resztę, a wszystkie konta na jakimś zewnętrznym serwerze... Jeżeli trzeba zmodernizować sieć, to modemy i routery wymienia operator, bo to w jego interesie, zapewne trzeba będzie ponownie połączyć domowe peryferia (wymiana peryferiów w ostateczności, a nawet jeżeli, to jest to pikuś w porównaniu z kupnem komputera)

Ewentualnie jak już "naczelny domownik" chce mieć w domu wypasiony komputer, to mógłby mieć jeden, tak jak ma jeden kocioł centralnego ogrzewania, zaś domownicy mieliby swoje peryferia i maksymalnie proste terminale... - coś o czym pisał DziadBorowy odnośnie AGH - ale gdybym to teraz powiedział komuś, kto w domu ma komputery i tablety należące do każdego członka rodziny, to by się zdziwił, że "tak można" - tyle, że o ile technicznie "coraz bardziej można", to w praktyce się na to nie stawia(*), nie ma o tym wiedzy i informacji, wobec czego być może (tu się mogę mylić) oprogramowanie, które to umożliwia może kuleć (najmniej używana opcja jest zwykle najsłabiej dopracowana), więc po wykonaniu czegoś takiego dostępnymi teraz narzędziami użytkownicy mogą narzekać...

(*) jeżeli nie wiadomo dlaczego, to wiadomo dlaczego...
Odpowiedz
#10
Rowerex napisał(a): Nie musi tak być - "komputer centralny" jest przenośnią - jeżeli go rozkawałkować i rozsypać po świecie, a kawałki i nazwać "serwerami świadczącymi usługi", to uzyskamy stan obecny - to tylko kwestia tego w którym miejscu schematu blokowego sieci ustawimy granicę pojęcia "terminal" - teraz z punktu widzenia domowych użytkowników i obecnego stanu techniki wydaje się ona być stawiana "za daleko" patrząc od strony podstawowych peryferiów - skutkiem tego przeciętni domownicy coraz częściej mają w domu "za dużo sprzętu", zwłaszcza tak upierdliwego w zarządzaniu jak "komputer z łindołsem".

Ale aby to rozproszyć to nie wystarczy wówczas "przedłużenie kabla". Albo musisz mieć na wejściu/wyjściu u użytkownika coś z obsługą TCP/IP albo trzeba by wymyślić całkiem nowy standard, co zważywszy na to jak głęboko TCP/IP jest zakopane we współczesnych sieciach oznaczało by budowę prawie całej infrasrtuktury sieciowej od nowa.
"Wkrótce Europa przekona się, i to boleśnie, co to są polskie fobie, psychozy oraz historyczne bóle fantomowe"
Odpowiedz
#11
Rowerex napisał(a): ale tu też zdarzają się zastosowania "przesadzone" w których malinka to grubo "za dużo"
Wiadomo — RPi zawiera masę komponentów, które dla różnych rozwiązań mogą być całkowicie niepotrzebne. I zapewne dla wielu z takich zastosowań można by użyć „gołego” mikrokontrolera. Tylko teraz trzeba zatrudnić kogoś, kto zbada problem, określi jaki sprzęt jest potrzebny, zaprojektuje, jak ten sprzęt zainstalować, stworzy system uaktualniania softu na tym mikrokontrolerze etc. Ostatecznie się okaże, że zaoszczędziliśmy kilkadziesiąt złotych na sprzęcie, a wydaliśmy kilka tysięcy na jego wdrożenie. Dlatego nie ma się co dziwić, że jeśli ktoś nie buduje urządzeń masowo, to woli trochę trochę przepłacić, ale dostać sprzęt, który działa „out of the box”.
Tress byłaby doskonałą filozofką. W istocie, Tress odkryła już, że filozofia nie jest tak wartościowa, jak jej się wcześniej wydawało. Coś, co większości wielkich filozofów zajmuje przynajmniej trzy dekady.

— Brandon Sanderson
Odpowiedz
#12
Do tematu tego wątku wróciłem myślami dlatego, że wdałem się w dyskusje na temat energii elektrycznej, oszczędzania energii elektrycznej i ogólnie energochłonności - no bo przeanalizujmy energochłonność np.:

  • transmisja przewodowa kontra bezprzewodowa, zaczynając od WiFi wewnątrz domu, kończąc na coraz szybszych sieciach zewnętrznych, szybszych i o mniejszej mocy "na wyjściu anteny", ale kosztem spadku zasięgu, co wymusza zwiększenie ilości nadajników,
  • komputerowe urządzenie przenośne z ładowalnym akumulatorem kontra to samo urządzenie podpięte na stałe kablem do zasilania (ale np. bez akumulatora, o ile ruszy, albo da się akumulator w ogóle wyjąć) - z innej beczki, gdy widzę reklamy domowego odkurzacza bezprzewodowego, to się zastanawiam, czy pod względem stanu licznika energii ma on sens na tak małym obszarze jaki ma obsłużyć,
  • a z powyższego już blisko do pytania, czy komputer na biurku nie jest grubym sprzętowo-energetycznym przerostem formy nad treścią, czy może cała niezmienna od lat idea sieci komputerowych nie jest z założenia generatorem strat energii elektrycznej, może nawet niezbyt reformowalnym ze względu na podstawy na jakich się opiera - może trzeba wymyślić nowe podstawy...
To gdybania teoretyczne i pierwsze z brzegu tematy, ale nie obiło mi się o oczy i uszy, by to był jakiś wiodący temat - może nie jest, bo może nie powinien być, może wszystko zmierza jednak w dobrym kierunku - po prostu nie wiem i na wymienione powyższe kwestie nie znam odpowiedzi, ale z ciekawości bym je poznał...
zefciu napisał(a):
Rowerex napisał(a): ale tu też zdarzają się zastosowania "przesadzone" w których malinka to grubo "za dużo"
Wiadomo — RPi zawiera masę komponentów, które dla różnych rozwiązań mogą być całkowicie niepotrzebne. I zapewne dla wielu z takich zastosowań można by użyć „gołego” mikrokontrolera. Tylko teraz trzeba zatrudnić kogoś, kto zbada problem, określi jaki sprzęt jest potrzebny, zaprojektuje, jak ten sprzęt zainstalować, stworzy system uaktualniania softu na tym mikrokontrolerze etc. Ostatecznie się okaże, że zaoszczędziliśmy kilkadziesiąt złotych na sprzęcie, a wydaliśmy kilka tysięcy na jego wdrożenie. Dlatego nie ma się co dziwić, że jeśli ktoś nie buduje urządzeń masowo, to woli trochę trochę przepłacić, ale dostać sprzęt, który działa „out of the box”.
Jest sobie firma coś produkująca do której przyjeżdża nieco nawiedzony przedstawiciel globalnego koncernu i mówi tak: macie potencjał, macie certyfikaty, macie możliwości, ale zlecimy wam produkcję dla naszego koncernu, jeżeli przedstawicie nam plany i analizy dotyczące efektywności energetycznej, energochłonności, zielonej energii i takie tam, a do tego plan poprawiania wszelkich wskaźników z tym związanych, a jak corocznego planu poprawy nie zrealizujecie, to się pożegnamy, bo ja już widzę u was sporo do poprawy - no i w tym momencie nawet taki tani, ale przewymiarowany względem zastosowania Rasberry Pi zaczyna być problemem, a jego taniość przestaje mieć znaczenie...

Jednocześnie ta sama firma co jakiś czas kupuje każdemu biurowemu pracownikowi takiego samego "laptopa z łindowsem" znanej marki, przy czym większość używa go tylko do telekonferencji lub jako maszynę do pisania i skrzynkę pocztową, w dodatku kupuje nowe tylko dlatego, że jakieś nowo wdrożone systemy informatyczne w końcu "zamuliły" wszystkie komputery na biurkach wziętymi z kosmosu wymaganiami choćby dla formatki do wklepywania ręcznie danych - i widząc to logika czasem popada w zadumę, nie mogąc wydusić z siebie niczego poza westchnieniem w rodzaju hmmm..., zwłaszcza, ze czasem po prostu nie ma żadnego innego wyjścia...
Odpowiedz


Skocz do:


Użytkownicy przeglądający ten wątek: 1 gości