środa, 24 marca 2010

Lodówka

Lodówka - szafka, szafa o pojemności do kilkuset litrów, wewnątrz której utrzymywana jest temperatura obniżona w stosunku do otoczenia. Głównym elementem lodówki jest urządzenie chłodnicze (chłodziarka) zazwyczaj sprężarkowe lub absorpcyjne. Powszechnie używana od lat 30. XX wieku.

Lodówki domowe służą do przechowywania żywności i schładzania, np. napojów. Buduje się je często jako lodówkozamrażarki.

Pierwsza lodówka została skonstruowana w 1914 roku przez Florence Parpart. Prymitywne lodownie powstawały już przed naszą erą, jednak były to duże budowle, na które przeciętny człowiek nie mógł sobie pozwolić. Rozwiązanie bliższe lodówce stosowali Wikingowie. Wewnątrz domu, z dala od ogniska, kopano głęboki dół, na dnie którego umieszczano lód lub śnieg. Po zapełnieniu dołu żywnością, przysypywano go warstwą ziemi. Mięso zabezpieczone w ten sposób zachowywało świeżość przez wiele miesięcy po zakończeniu zimy.

Lodówka oznaczała niegdyś pomieszczenie gospodarcze, pojemnik lub szafkę izolowaną termicznie od otoczenia, umożliwiającą przechowywanie w obniżonej temperaturze łatwo psujących się produktów. Chłodzenie zapewniało umieszczenie we wnętrzu lodówki substancji o odpowiednio niskiej temperaturze i dużej pojemności cieplnej. Mogło to być ciało o dużej masie i cieple właściwym, jednak zazwyczaj wykorzystywano do tego celu ciepło przemiany fazowej (topnienia). Najczęściej używane czynniki chłodzące to lód (stąd nazwa — lodówka), mieszaniny oziębiające (np. lód z dodatkiem soli) oraz zestalony dwutlenek węgla - suchy lód.

Przenośne pojemniki o podobnej funkcji nazywamy termosami. Specjalne budowle służące do magazynowania i przechowywania lodu to lodownie. Tak samo nazywa się samochody izolowane, z wbudowanymi akumulatorami chłodu (w postaci płyt eutektycznych).

Lodówki tego typu wyszły z użycia wraz z popularyzacją chłodziarek, które nie muszą być zaopatrywane w lód.

Budowa

PAROWNIK: Jest sercem lodówki. W jego wnętrzu znajduje się ciecz chłodząca, która
parując pobiera ciepło z otoczenia. Parownik jest wykonany z czystego aluminium.
TACKA NA ŚCIEKAJĄCĄ WODĘ (używana podczas rozmrażania): Podczas
rozmrażania należy ustawić ją pod parownikiem, aby zbierała się w niej woda.
UKŁAD STERUJĄCY: Steruje pracą silnika oraz reguluje temperaturę wnętrza
lodówki.
PLASTIKOWA PÓŁKA: Jej szerokość jest równa szerokości wnętrza lodówki. Półkę
można wyjąć.
PÓŁKA: Można na niej przechowywać masło, jajka,
MAGNETYCZNE ZAMKNIĘCIE DRZWI: Dzięki niemu drzwi są zawsze szczelnie
domknięte, a jednocześnie otwieranie drzwi nie wymaga dużej siły
POJEMNIK NA KOSTKI LODU: Ułatwia przygotowywanie kostek lodu.
PÓLKA NA PUSZKI I SŁOIKI: Można na niej przechowywać puszki lub słoiki.
PÓŁKA NA BUTELKI: Można na niej ustawiać butelki, puszki lub słoiki.
POJEMNIK: Można w nim przechowywać owoce i warzywa.
POKRYWA POJEMNIKA

Zasada działania

LODÓWKA służy do przechowywania żywności w gospodarstwach domowych i sklepach. Lodówka posiada także komorę o temperaturze poniżej 0°C, czyli zamrażalnik lodówki. W lodówce chłodzenie odbywa się za pomocą chłodniczego urządzenia absorpcyjnego lub sprężarkowego. Ciecz zwana czynnikiem chłodniczym (płyn parujący przy niskiej temperaturze) pobiera ciepło z chłodzonego otoczenia przechodzi przez parownik (powyginana esowato rurka). Parownik jest najzimniejszą częścią lodówki, zwykle umieszcza się go w zamrażalniku.

Większość domowych lodówek to chłodziarki sprężarkowe. Chłodziarka sprężarkowa wyposażona jest w sprężarkę napędzaną silnikiem elektrycznym, który zmusza czynnik chłodzący do krążenia w obiegu. Sprężarka, zwykle tłokowa, przetłacza parę czynnika chłodniczego do skraplacza, w którym para skrapla się oddając ciepło, następnie czynnik paruje pobierając ciepło od chłodzonych produktów. Niepożądanemu podnoszeniu się temperatury w lodówce zapobiega zainstalowany w niej termostat, który włącza agregat, gdy temperatura podnosi się i wyłącza go, gdy za bardzo spada. Tym samym powoduje, że lodówka nie pracuje bez przerw, przez co zmniejsza się zużycie energii elektrycznej.

Lodówka, zamrażarka czy też chłodnia musi być wyizolowana termicznie. Ciepło z zewnątrz nie może się dostać do wnętrza lodówki, chłodni lub zamrażarki. Ciepło dostające się do środka lodówki, zamrazarki, chlodni powodowałoby włączenie przez termostat agregatu chłodniczego i pobieranie dużych ilości energii, aby agregat mógł pracować bez przerwy utrzymując odpowiednią temperaturę wewnątrz chłodnie, lodówki bądź też zamrażarki.

Pralka


Pralka – urządzenie mechaniczne służące do prania odzieży.

Pierwsza pralka została zbudowana przez J. Kinga w 1851 r. Jej działanie opierało się na wykorzystaniu pary, a zasada działania tej pralki znacznie odbiegała od naśladowania ręcznych czynności. Pralki napędzane elektrycznie zaczęto konstruować w 1899, kiedy został wynaleziony silnik elektryczny. Jedną z pierwszych była pralka z bębnem z emaliowanego drewna, która została zbudowana w 1907 roku przez Alvę Fishera.

Przez kilka następnych lat ta pralka była udoskonalana poprzez poziome lub pionowe ustawienie bębna, zmianę szybkości obrotów, itp. W Polsce przez wiele lat popularna była pralka Frania. Z czasem pralki półautomatyczne zostały wyparte przez automatyczne.

Pralka z 1934 roku sama utrzymywała stałą temperaturę wody, dozowała proszek i płukała. W 1937 roku w USA zbudowano pierwszą programowaną pralkę automatyczną – wykonującą takie czynności jak: pranie, płukanie, odwirowanie oraz czasowe zaprogramowanie czynności, ustawienia temperatury wody czy szybkości obrotów.

Budowa


Pralki są napędzane silnikiem elektrycznym a jedną z ich podstawowych części to bęben. Znajduje się on w specjalnym, szczelnym zbiorniku pralek, otwieranym od góry lub z boku. Bębny pralek wykonane ze stali nierdzewnej, posiadają dziurki służące do odpływu wody ze zbiornika.




W pralkach ładowanych od przodu, oś przytwierdzona do tylnej ścianki bębna przechodzi poprzez łożyska o dwóch różnych średnicach, umieszczonych na tylnej ściance zbiornika. Natomiast w typie pralek ładowanych od góry bęben może być umiejscowiony pionowo (bęben otwarty od góry) lub poziomo (łożyska są po obu stronach bębna, do którego pranie ładuje się przez boczną klapkę).

Kolejna istotna część pralek to oczywiście programator. To on odpowiada za cały proces kolejno wykonywanych przez pralki czynności. Dzięki zastosowaniu hydrostatu możliwa jest regulacja ilości pobieranej wody. Natomiast grzałka elektryczna podgrzewa wodę do ustawionej regulatorem temperatury. Grzałka swoje działanie opiera na wskazaniach czujników temperatury, które nie są powiązane z programatorem.

Takie rozwiązanie umożliwia różne ustawienia prania - długi cykl z niską temperaturą, krótki z wysoką itd. Współczesne pralki wirują z ogromną prędkością. Dlatego konieczne jest użycie tzw. przeciwwagi - czyli po prostu odpowiednio uformowanego żeliwnego kawałka. Przytwierdza się go do zbiornika w odpowiednim miejscu. To jest "główny" sprawca sporej wagi pralki.

Amortyzatory oraz sprężyny, na których zawieszony jest silnik zapobiegają przemieszczaniu się i wytłumiają drgania pralki w czasie pracy. Silnik w czasie pracy obraca się na zmianę pewną ilość razy w jedną stronę a po chwili w odwrotną. Ubrania są przez to przerzucane na różne strony, ocierają się o nierówną powierzchnię bębna, a woda z rozpuszczonym środkiem piorącym dociera do każdego brudnego fragmentu tkanin.

Pompa pompuje wodę na początku prania i odpompowuje na końcu. Brudna woda po praniu przechodzi przez filtr, na którym zostają różne większe kawałki włóknien i drobne przedmioty nie wyjęte z kieszeni. ;) W czasie prania drzwiczki są zablokowane zamkiem elektromagnetycznym, sterowanym przez regulator czasowy w programatorze. Takie zabezpieczenie uniemożliwia przypadkowe otwarcie drzwiczek w czasie prania.

Suszarka do włosów

Suszarka do włosów - urządzenie elektryczne, służące do suszenia włosów.
Najczęściej ma rozmiary pozwalające na trzymanie jej w ręce; większe suszarki, stojące, używane są głównie w zakładach fryzjerskich.

Pierwsza suszarka została opracowana przez polskiego inżyniera Michała Doliwo-Dobrowolskiego (głównego inżyniera zakładów AEG) w 1899 roku. Nosił nazwę Fön, (ciepły, górski wiatr). Ich produkcję rozpoczęto w zakładach AEG w Norymberdze. Pierwsze skutecznie działające suszarki do włosów powstały w roku 1920 (modele: "Race" i "Cyclone"). Wyprodukowała je firma Racine Universal Motor Company i fabryka w Hamilton Beach.

Ważyły ona prawie 2 kg i były skrzynkami ustawionymi na stole. Pierwsze modele przegrzewały się i paliły. Dlatego bez przerwy ulepszano pierwotną konstrukcję. W 1951 roku pojawiły się suszarki wyposażone w elastyczny wąż połączony z plastikowym kapturem.W suszarkach zastosowano silnik uniwersalny, silnik elektryczny szeregowy komutatorowy 1-fazowy dostosowany do zasilania zarówno prądem przemiennym, jak i prądem stałym; stosowanym m.in. w sprzęcie gospodarstwa domowego.

Mimo biegu czasu i licznych zmian technicznych, podstawowa budowa oraz funkcja elektrycznych suszarek do włosów nie uległa zasadniczej zmianie. Dopasowana do kształtu dłoni obudowa kryje w swoim wnętrzu silnik z wiatrakiem oraz spiralę grzewczą, przez którą przedmuchiwane
powietrze ulega ogrzaniu a odpowiednio wyprofilowana dysza kieruje je na włosy.

Tyle teoria a teraz praktyka, która niejednokrotnie bywa całkiem odmienna. Wiele dawnych suszarek wzbudza dzisiaj nasze uśmiechy i wyrazy współczucia dla pań korzystających z owych
udogodnień życia codziennego. Kilogram nagrzewającej się stali lub bakielitu, moc do 300 wat,
nawiew raczej symboliczny, oto "atuty" dawnych suszarek z dzisiejszego punktu widzenia.

Mimo to, mają one jedną wielką zaletę a mianowicie; niezawodność.
Współczesne suszarki bardzo rzadko wytrzymują dłużej niż kilka lat. Ich niska cena i ogólna
dostępność w sklepach sprawia, że nie naprawia się ich, tylko wyrzuca zastępując nowymi modelami.


Krajowym pionierem suszarek do włosów była firma Zelmer, która już na początku swojej działalności w latach 50-tych, produkowała profesjonalne suszarki fryzjerskie typu hełmowego.

środa, 17 marca 2010

Silnik czterosuwowy


Silnik czterosuwowysilnik spalinowy o spalaniu wewnętrznym wykorzystywany w samochodach, ciężarówkach, motocyklach oraz wielu innych maszynach. Nazwa odnosi się do czterech faz, które zachodzą podczas działania: wpływu powietrza lub mieszanki paliwowej, sprężenia, pracy i wydmuchu spalin. Cykl obejmuje dwa okrążenia wału korbowego na cykl pracy, inaczej mówiąc, silnik czterosuwowy to silnik, którego tłok wykonuje cztery ruchy posuwiste w jednym cyklu roboczym.



Budowa

Silnik czterosuwowy składa się z następujących głównych części: kadłuba, głowicy, mechanizmu korbowego oraz rozrządu i koła zamachowego.

Kadłub, to obudowa silnika. W nim poruszają się tłoki i wał korbowy. Od góry przykrywa go głowica, która zawiera zawory i pozostałe części mechanizmu rozrządu. Kadłub również zawiera w swej budowie elementy, które pozwalają przymocować sam silnik do napędzanego mechanizmu, jak również do niego zostają przytwierdzone elementy osprzętu potrzebne do funkcjonowania silnika.

W skład kadłuba i głowicy wchodzą również takie elementy, jak kanały dolotowe mieszanki paliwowo-powietrznej, wylotowe spalin, kanały układu chłodzenia i smarowania. Kanały dolotowe, którymi przemieszcza się mieszanka muszą być odpowiedniej średnicy, aby mogła ona w sposób swobodny przejść do komory spalania silnika.

Kanały wylotowe również musza mieć odpowiednią średnicę, aby sprawnie odprowadzać spaliny. Ich temperatura może osiągać poziom 800ºC a ich ciśnienie około 20 atmosfer, a liniowa prędkość uchodzenia jest bliska prędkości dźwięku, czyli około 1200 km/h.

Mechanizm korbowy jest kolejną zasadniczą częścią silnika. W jego skład wchodzą wał korbowy, korbowód, tłok oraz koło zamachowe. Mechanizm korbowy przekształca liniowy ruch tłoka na obrotowy ruch wału korbowego.

Zasada działania
DMP – określenie stosowane w technice, oznaczające "Dolne Martwe Położenie" tłoka, czyli skrajne dolne położenie tłoka w cylindrze odpowiadające największej objętości przestrzeni roboczej.


GMP - Określenie stosowane w technice, oznaczające "Górne Martwe Położenie" tłoka, czyli skrajne górne położenie tłoka w cylindrze odpowiadające najmniejszej objętości przestrzeni roboczej. Można spotkać także określenie ZMP, oznaczające "Zewnętrzne Martwe Położenie" jest ono jednoznaczne dla każdego położenia cylindra ale w społeczności mechaników silnikowców nie używane często.


Suw ssania

Tłok przesuwa się w dół z górnego (GMP) do dolnego martwego punktu (DMP), wytwarzając we wnętrzu cylindra podciśnienie. W tym czasie zawór ssawny jest otwarty, dzięki temu z kanału dolotowego, znajdującego się za zamykającym go zaworem ssącym, wciągnięta zostaje z układu dolotowego silnika (gaźnik,wtrysk jedno- lub wielopunktowy), zostaje zassana mieszanka paliwowo-powietrzna (lub w przypadku wtrysku bezpośredniego zostaje zassane samo świeże powietrze, np. silniki typu FSI lub Diesla). Trafia ona do wnętrza cylindra, pomiędzy tłok, a głowicę cylindra. Kiedy tylko tłok przekroczy DMP, zawór ssący zostaje zamknięty.

Suw sprężania

Tłok przemieszcza się w górę cylindra, ściskając (czyli sprężając) mieszankę paliwowo-powietrzną. Oba zawory (ssawny i wydechowy) są zamknięte. Sprężanie następuje pod znacznym ciśnieniem, do (zwykle) mniej więcej jednej dziesiątej początkowej objętości mieszanki. Ale zanim osiągnie minimalną objętość ( na 1-2 milimetry – lub inaczej na ok. 5 stopni obrotu wału korbowego zanim tłok osiągnie GMP) następuje zapłon. Celem jest doprowadzenie do spalenia całej mieszanki w chwili, gdy tłok przekroczył GMP i może zostać odepchnięty przez rozprężające się gazy spalinowe rozpoczynające suw pracy.

Suw rozprężania (pracy)

Przed osiągnięciem GMP w silnikach wysokoprężnych i tych z elektronicznym, bezpośrednim wtryskiem paliwa lekkiego (np. FSI koncernu VW lub GDI Mitsubishi) następuje wtrysk paliwa i zapłon samoczynny lub wymuszony iskrą. Oba zawory (ssawny i wydechowy) są zamknięte. Tłok zostaje odepchnięty z dużą siłą, gdyż we wnętrzu komory spalania po zapłonie powstaje ciśnienie o wartości do 100 barów (co czasem odpowiada sile nacisku na tłok równej 5 tonom). Takie siły muszą być przeniesione z denka tłoka przez korbowód na wał korbowy. Wymusza to ruch tłoka do DMP. Z tego jednego suwu pracy silnik musi uzyskać wystarczającą energię by zrealizować pozostałe trzy suwy. Dlatego też silniki pracują tym równiej im więcej mają cylindrów.

Suw wydechu

Jeszcze zanim tłok osiągnie DMP, otwarty zostaje zawór wydechowy i wciąż jeszcze nie do końca rozprężone gazy spalinowe mogą opuścić cylinder przez układ wydechowy. Przemieszczający się w górę tłok aż do osiągnięcia GMP, gdy zawór wydechowy jest otwarty wypycha z cylindra resztę gazów, a po osiągnięciu GMP następuje tzw. "wahnięcie", czyli zamknięcie zaworu wydechowego a otwarcie zaworu ssącego i cykl rozpoczyna się od początku.























made by Robson Studio 2010

Silnik dwusuwowy

Silnik dwusuwowy jest to silnik spalinowy, w którym cztery fazy pracy (ssanie, sprężanie, praca i wydech) wykonywane są w ciągu dwóch suwów (od górnego do dolnego skrajnego położenia) tłoka.

Istnieją konstrukcje silników dwusuwowych zarówno o zapłonie iskrowym, jak i o zapłonie samoczynnym.


Budowa i zasada działania


W silniku dwusuwowym cykl pracy przebiega podczas dwóch suwów tłoka, tzn. podczas jednego obrotu wału korbowego. Silniki dwusuwowe wykonują tylko suw sprężenia i suw pracy.

Czynności związane z wymianą ładunku, tj. napełnienie cylindra i wylot spalin, odbywają się tu prawie jednocześnie, kiedy tłok znajduje się w okolicy DMP, a więc pod koniec suwu pracy i na początku suwu sprężenia. Silniki dwusuwowe zazwyczaj nie mają zaworów.

Wylot i dolot spalin reguluje w nich sam tłok, odsłaniając lub zasłaniając odpowiednie otwory w ściankach cylindra. Ponieważ w silniku dwusuwowym nie ma suwu dolotu świeży ładunek przeznaczony do napełnienia cylindra musi być uprzednio sprężony poza cylindrem roboczym. To wstępne sprężanie odbywa się w specjalnie przystosowanej do tego celu dmuchawie lub sprężarce, albo w komorze korbowej silnika.


Zaletą silników dwusuwowych jest znacznie prostsza konstrukcja, duża równomierność biegu i teoretycznie dwa razy większa moc w porównaniu z silnikami czterosuwowymi o tych samych wymiarach cylindra, prędkości obrotowej i ciśnieniu w cylindrze.


W rzeczywistości jednak zysk na mocy wynosi zaledwie 50-70% z powodu zmniejszenia objętości skokowej cylindra przez szczeliny oraz wskutek niemożności zupełnego przepłukania cylindra i usunięcia z niego spalin.


Sprawność silników dwusuwowych jest znacznie mniejsza niż czterosuwowych, gdyż duża ilość nie spalonej mieszanki uchodzi przez szczelinę wylotową podczas przepłukiwania cylindra. W większych silnikach dwusuwowych zamiast sprężania w komorze korbowej stosuje się osobną dmuchawę tłokową lub wirową napędzaną przez wał korbowy silnika.


Suw sprężania

Podczas tego suwu następuje wzrost ciśnienia ładunku zgromadzonego w cylindrze. Proces ten odbywa się w warunkach ciągłej wymiany ciepła między ładunkiem a ściankami cylindra, głowicą i denkiem tłoka.

Ta wymiana ciepła odbywa się ze zmienna intensywnością, a nawet ze zmiennym kierunkiem przepływu ciepła. Na początku suwu ładunek pobiera ciepło od denka tłoka i ścianek cylindra, przy końcu zaś następuje oddawanie ciepła przez ładunek do ścianek przestrzeni roboczej. Na początku suwu sprężania trwa jeszcze proces przepłukiwania cylindra, czyli wymiany ładunku.

Suw rozprężenia (praca)

Proces rozprężenia rozpoczyna się po ukończeniu spalania mieszanki. Wysokie ciśnienie znajdujących się w cylindrze silnika gazów spalinowych sprawia, że wywierają one tłok znaczną siłę, pod wpływem, której tłok przesuwa się ku DMP.

Rozprężające się spaliny wykonują pracę. Stąd suw rozprężenia nazywa się suwem pracy. Podobnie jak podczas sprężania tak i tu występuje ciągła wymiana ciepła między gazami a czynnikiem chłodzącym za pośrednictwem ścianek cylindra i głowicy. Pod koniec suwu rozpoczyna się proces przepłukiwania.


W tym systemie okna (szczeliny) dolotowe i wylotowe umieszczone są po przeciwległych stronach cylindra. W celu zapobieżenia ucieczce świeżego ładunku dopływającego do cylindra jego strumień skierowuję się ku górze przez zastosowanie nasady sterującej na tłoku lub pochylenie kanału dolotowego.

Rozwiązanie z nasadą sterującą na tłoku ma wiele wad. Skomplikowany kształt denka tłoka i komory spalania w głowicy utrudnia obróbkę tych elementów i zwiększa ich koszty. Niesymetryczny kształt sprzyja powstaniu odkształceń cieplnych i pękaniu tłoka.

Korzystniejszym rozwiązaniem jest pochylenie kanału dolotowego. Należy jednak pamiętać, że pochylenie kanału dolotowego powoduje wzrost wysokości okien, a tym samym zmniejszenie czynnego skoku tłoka




Made by Robson Studio 2010

wtorek, 16 marca 2010

Zapaść gier wideo w 1983

Zapaść gier wideo w 1983 była nagłym krachem biznesu gier wideo, co spowodowało bankructwo wielu firm produkujących komputery domowe i konsole gier wideo w Ameryce Północnej pod koniec 1983 i na początku 1984. Doprowadziła ona do zakończenia drugiej generacji gier wideo.

Spowodowana tą zapaścią trzyletnia luka stopniowo zapełniała się nowymi produkcjami, ale brakowało znaczących osiągnięć w tej dziedzinie. Okres ten został zakończony wraz z sukcesem konsoli Nintendo Entertainment System (NES), która została wydana w Japonii w 1983 (jako Famicom), a później także w Stanach Zjednoczonych w 1985. Do roku 1987 zyskała ona sobie dużą popularność w obu tych krajach.

Czasem okres ten nazywany jest "zapaścią gier wideo w 1984", ponieważ to właśnie w 1984 efekty krachu stały się oczywiste dla konsumentów. Setki gier tworzonych z myślą o ich wydaniu w 1983 nie zostały w ogóle wyprodukowane. W roku 1983 ograniczono produkcję gier, bo plany zakładały zwiększenie ich sprzedaży rok później. W rezultacie liczba nowych gier wydanych w tamtym czasie nie była zbyt duża.

Przyczyny zapaści

Zapaść gier wideo w 1983 była spowodowana głównie następującymi czynnikami:

Bardzo agresywny marketing tanich komputerów domowych, głównie Commodore 64, wykorzystujący hasła reklamowe typu: "Dlaczego kupować dziecku konsolę, która odciągnie je od nauki, skoro możesz kupić komputer, który przygotuje je do college'u?".

Z przeprowadzonych badań rynku wynikało, że miliony konsumentów zmieniło swoje preferencje kupując teraz więcej komputerów w podobnej cenie, co konsole.

Wylew tytułów bardzo niskiej jakości połączony z wydaniem na Atari 2600 niskiej jakości gier nawiązujących do filmowego hitu E.T. i niezbyt udanej konwersji gry arcade Pac-Man.

Programy informacyjne dotyczące problemów lat 1982-83, m.in. historia Atari, które zakopało tysiące kartridżów z grą E.T. w Nowym Meksyku.

Powzięcie decyzji przez czołowych producentów zabawek, że gry wideo są tylko krótkotrwałym hobby (Cabbage Patch Kids i Beanie Babies), a półki sklepowe mogą zostać zapełnione produktami o wyższej jakości.

Wpływ komputerów domowych

Do czasu lat 80. komputery osobiste były sprzedawane w specjalistycznych sklepach komputerowych za cenę ponad 1 000 dolarów (czyli około 3 000 dolarów dzisiaj). Na początku lat 80. zaprezentowano niedrogie komputery podłączane do telewizora, które oferowały kolorową grafikę i dźwięk. Pierwszymi takimi komputerami były Atari 400 i 800, lecz rywalizowało ze sobą znacznie więcej modeli. Dziennikarz David H. Ahl w 1984 powiedział:

Wiosną 1982 cena TI 99/4A i Atari 400 wynosiła 349 dolarów, Radio Shack Color Computer 379 dolarów, a Commodore opuścił cenę VIC-20 do 199 dolarów, a C64 do 499 dolarów.

Ponieważ te i inne komputery zazwyczaj miały większą dostępną pojemność danych i lepsze możliwości audio-wizualne niż konsole, tworzono na nie bardziej złożone gry. Komputery jednak nie musiały być wykorzystywane jedynie do gier i można było na nich wykonywać między innymi tworzenie tekstu czy prowadzenie rachunku domowego.

Same gry natomiast było łatwiej kopiować, ponieważ były wydawane na dyskietkach lub kasetach, a nie, jak w przypadku konsol, na modułach ROM.

Commodore w swoich reklamach wyraźnie działał na szkodę producentów konsol, pokazując, jakie korzyści przybędą dzięki zakupowi Commodore 64 zamiast konsoli gier wideo. Badania firm Atari i Mattel potwierdziły, że te reklamy spowodowały zmniejszenie sprzedaży i znaczenia ich konsol.

W przeciwieństwie do innych firm Commodore sprzedawało również komputery w tych samych sklepach co producenci konsol swoje produkty. Przewaga firmy Commodore spowodowana była tym, że w odróżnieniu od Texas Instruments, Coleco czy Atari, to oddział Commodore'a, MOS Technology, Inc., produkował większość chipów (jeden z najpopularniejszych to procesor 6502) używanych w komputerach Atari i w konsolach. Podobna sytuacja miała miejsce na rynku kalkulatorów na początku lat 70. Firmy kupowały chipy od Texas Instruments i jednocześnie rywalizowały z jego kalkulatorami.

Wylew produktów

Jeżeli dany tytuł się nie sprzedaje, jest zwrócony do wydawcy, a sklep dostaje inny tytuł w zamian. Proces się powtarza do czasu, gdy dobra zostaną sprzedane. Ten model biznesowy — istniejący do dziś — stał się podstawą zapaści w 1983.

Początki zbliżającej się zapaści zaczęły się bardzo dobrze. Firmę Activision założyli czterej byli projektanci gier Atari, którzy odeszli z niej w 1979, ponieważ Atari nie chciało, aby napisy końcowe pojawiały się w grze oraz nie płaciło pracownikom honorarium zależnego od sprzedanych kopii gier.

W tym czasie Atari było własnością Warner Communications. Producenci poczuli, że mogą zdobyć taką samą popularność jak muzycy, reżyserowie czy aktorzy z innych oddziałów Warnera.

Atari szybko wytoczyło sprawę firmie Activision w celu zablokowania sprzedaży ich produktów, lecz nigdy nie wygrało sprawy, która została rozporządzona na korzyść Atari w 1982.

Ta sprawa zatwierdziła tworzenie gier przez producentów niezwiązanych z firmą produkującą konsole i spowodowała powstanie nieprzygotowanych oddziałów firm, takich jak Quaker Oats, licząc na zaimponowanie klientom i akcjonariuszom na Wall Street.

Firmy kusiły programistów innych firm lub używały reverse engineering do nauki, jak tworzyć gry na dany system. Atari zatrudniło programistów firmy Intellivision, co spowodowało wytoczenie sprawy Mattel kontra Atari, przeciwko któremu pozew dotyczył między innymi szpiegostwa.

W przeciwieństwie do firm Microsoft, Nintendo czy Sony w następnych dekadach, producenci konsol stracili możliwość kontrolowania wydawania gier na swoją platformę. Razem z tym utracili możliwość upewnienia się, że sklepy z zabawkami nie będą przepełnione.

Większość nowych firm nie miało utalentowanych projektantów do tworzenia gier, więc tytuły, takie jak Chase the Chuck Wagon, Skeet Shoot czy Lost Luggage, były grami tworzonymi w nadziei na zyski ze sprzedaży podczas bziku na gry wideo. Pomimo że głośno reklamowane, większość tych tytułów była bardzo słaba.

Zakładanie firm też przyczyniło się do zapaści. Na przykład gdy Atari wydało szeroko rozreklamowaną grę E.T., wyprodukowane miliony kopii gry miały przynieść ogromne zyski. Gra wydana została jednak już po sześciu tygodniach prac.

Słaba jakość gry szybko okazała się prawdą, co podchwyciły również media i nazwały grę E.T. pierwszą wielką pomyłką w przemyśle gier komputerowych. Dodać należy, że wyprodukowano więcej cartridge'y niż było konsol Atari na świecie.

Utrata zaufania sprzedawców

W 1982 miał miejsce wylew wielu gier poniżej standardów. W firmie Mattel, jeden z dyrektorów sprzedaży Intellivision opisał problem mówiąc: "Produkty na dwa lata zostały wepchnięte w jeden rok i nie ma szansy na zrównoważenie systemu".

Gdy sklepy zaczęły zwracać produkty do nowych wydawców, ci nie mieli ani nowych gier ani pieniędzy na zrefundowanie wkładu sprzedawców. Wielu wydawców, włączając Games by Apollo, US Games czy Quaker Oats, szybko znikło z rynku.

Ponieważ sprzedawcy nie mieli komu zwrócić niesprzedanych gier po Gwiazdce 1982 ich ceny zostały znacząco obniżone. Podczas gdy zwykła gra w 1982 kosztowała 34,95 dolarów - około 71 dolarów z 2005 - w przecenie były dostępne za cenę 4,95 dolarów. W czerwcu 1983 rynek gier za 34,95 dolarów przekształcił się w rynek niskobudżetowych gier.

Konsumenci w sklepach zatrzymywali się jedynie przy grach z obniżonymi cenami. Niepoinformowany klient widział jedynie tanie gry i trudno było dostać gry dobrej jakości. Po jakimś czasie konsumenci mieli dość gier poniżej standardów i zamiast kupować gry wysokobudżetowe odchodzili od gier.

Dodatkowo sprzedawcy, którzy kontrolowali dostęp konsumentów do gier, stwierdzili, że gry były jedynie przelotną modą i teraz dobrze byłoby wypełnić półki innymi produktami.

Producenci konsol, Mattel, Magnavox i Coleco opuściły przemysł gier komputerowych. Imagic odwołało swoje IPO dzień przed wydaniem i później upadło. Podczas gdy najwięksi producenci gier, jak Activision, przetrwali, wiele firm wspierających Atari 2600 zostało zamkniętych.

Niektórzy entuzjaści uważają rok 1983 za okres największej popularności gier arcade. Był to jednak rok wydania bardzo udanej gry Dragon's Lair, pierwszej gry korzystającej z dysku optycznego jako nośnika danych oraz wprowadzającej technikę full motion video. Gry arcade również były odbierane na zasadzie "gry wideo już minęły" i ich sprzedaż spadła drastycznie.

Wojna cenowa

Równocześnie z upadkiem gier wideo miała miejsce wojna cenowa komputerów domowych, która okazała się fatalna dla niektórych konkurentów. David Ahl powiedział:

W styczniu 1983, [Jack Tramiel, dyrektor Commodore] obniżył cenę Vic do 139 dolarów i C64 do 400 dolarów. TI [Texas Instruments] zareagowało miesiąc później obniżając cenę 99/4A do 149 dolarów.

Tramiel odpowiedział obniżką ceny Vic poniżej 100 dolarów, zmuszając TI do dalszej obniżki ceny 99/4A do 100 dolarów w czerwcu. 10 czerwca 1983 TI ogłosiło największą stratę w całej historii firmy, a trzy miesiące później wycofało się z rynku komputerów domowych. Tramiel, szukając dalszych zysków, obniżył cenę C64 do 200 dolarów.

Poza Texas Instruments wojna uderzyła w Coleco Adam, linię Timex-Sinclair i wielu pomniejszych konkurentów. Atari było bliskie bankructwa i w 1984 zostało sprzedane przez Warner Communications (teraz części Time Warner). Tym, kto kupił Atari, był Jack Tramiel.

Długoletni wpływ na przemysł gier

Zapaść spowodowała dwa długoterminowe efekty. Pierwszy to przemieszczenie dominacji konsol gier wideo ze Stanów Zjednoczonych do Japonii. Gdy rynek gier wideo powrócił w 1987, głównym systemem była konsola Nintendo Entertainment System i wskrzeszone Atari walczące z Segą (założoną przez Amerykanina Martina Bromely'a) o drugie miejsce. Ze względu na porażkę konsoli Jaguar firma Atari przestała produkować systemy gier w 1996 roku.

Drugim widocznym efektem zapaści było stworzenie oddziałów do kontrolowania tworzonych gier. Nintendo - i wszyscy następni producenci konsol - kontrolowali dystrybucję gier poprzez ograniczenia licencyjne i implementację systemów zabezpieczeń w konsolach. Wydawcy bez porozumienia z producentem nie byli w stanie sprzedać gry, ponieważ kartridż musiał zawierać chip z poprawnym kluczem uruchamiającym.

Jeżeli w kartridżu nie było chipu lub był z błędnym kluczem gra się nie uruchamiała. Pomimo że Accolade wygrało jeden proces z Segą dotyczący tego typu zabezpieczeń, ostatecznie i tak podpisało umowę licencyjną z firmą Sega. Różni wydawcy - między innymi Tengen (Atari), Color Dreams i Camerica - walczyły z systemem kontroli Nintendo w czasie ery 8-bitowców. Koncepcje takiej kontroli dalej są używane przez czołowych producentów konsol gier wideo.

Nintendo rezerwowało sobie zyski ze sprzedaży gier na NES limitując większość producentów do pięciu gier na rok. Wymagał również, aby wszystkie kartridże były produkowane przez Nintendo i zapłaty za tworzenie.

Kartridże nie mogły wrócić do Nintendo, więc to wydawcy ryzykowali. Nintendo opisywało te ograniczenia jako ochronę przed słabymi grami i wprowadziła oznaczenie Nintendo Seal of Quality na wszystkich grach wydanych na konsolę.

Mimo że większość pomysłów kontroli gier Nintendo zostało później adoptowanych przez producentów konsol (między innymi Sega, Sony i Microsoft), żaden z nich nie wykorzystywał takich ograniczeń do utrzymywania rynku dla siebie.

Producenci konsol w 2005 zwykle otrzymywali 9 dolarów za każdą licencjonowaną sprzedaną kopię gry przez autoryzowanych wydawców. Pozwoliło to producentom konsol na zarobienie na sukcesie wydawców i kontrolowanie słabych, pornograficznych lub w inny sposób kontrowersyjnych gier, jak na przykład Custer's Revenge, które mogłyby zniszczyć reputację konsoli.

Pomniejszym efektem zapaści, który trwał od lat 80. do czasu nowej generacji konsol to zwiększona tendencja produkcji i wydawania gier na komputery. Na przykład Electronic Arts założone w 1982 wydając pierwszą grę w 1983 uniknęło zapaści, ponieważ biznesplan firmy przewidywał jedynie wydawanie gier na komputery.












Made by Rbson studio 2010

sobota, 13 marca 2010

Historia gier komputerowych (3 generacja)

W historii gier komputerowych, era 8-bitowców była trzecią generacją konsol gier wideo i pierwszą po zapaści gier wideo w 1983. Przez niektórych era ta uznawana jest za pierwszą "współczesną" erę gier konsolowych. Pomimo że konsole poprzednich generacji również korzystały z 8-bitowych procesorów, dopiero w tej generacji konsole zostały oznaczone według "ilości bitów".

Takie oznaczenie stało się powszechne, gdy rozpoczęto marketing systemów 16-bitowych, takich jak Mega Drive/Genesis, co podkreślało różnice pomiędzy poszczególnymi generacjami konsol. Takie oznaczenie przetrwało do szóstej generacji.

Podczas tej ery największą sławą w Japonii cieszył się Famicom (skrót od komputer rodzinny - family computer). NEC PC Engine również zdobył popularność, dorabiając się dużej ilości sprzętu.

Amerykański odpowiednik Famicoma, Nintendo Entertainment System, zdominował rynek gier w północnej Ameryce. Pomimo tego na rynku dobrze trzymały się również Sega Master System (popularny głównie w Brazylii i Europie) oraz Atari 7800. Ta generacja często jest mylnie opisywana jako "Pierwsza generacja".

Systemy w erze 8-bitowców ( kolejność Atari 7800, Atari XE Game System, Nintendo Entertainment System, Sega Master System )








Made by Robson Studio 2010

czwartek, 11 marca 2010

Historia gier komputerowych (4 generacja)

W historii gier komputerowych, era 16-bitowców była czwartą generacją konsol gier wideo. Era ta zdominowana była przez konsole Super Nintendo Entertainment System i Sega Mega Drive (nazywaną też Sega Genesis), które rywalizując ze sobą spowodowały, że ten okres uznaje się za jeden z największych pod względem konkurencyjności okresów w północnoamerykańskiej historii gier komputerowych. Konsola TurboGrafx-16 również należała do tej ery. Zdobyła ona popularność nie w Ameryce Północnej lecz w Japonii.

Konsole tej generacji (kolejność TurboGrafx 16,Sega Mega Drive Sega Genesis, Super Nintendo Entertainment System)


























Początki

Sega i NEC jednocześnie wydały konsole Genesis i TurboGrafx 16 tuż przed świętami Bożego Narodzenia. Obydwa systemy zdobyły popularność, mimo że Nintendo miało około 90% udziałów w przemyśle dzięki Nintendo Entertainment System, pokazując tym samym, że rynek był przygotowany na nowe technologie. Bardziej zaawansowana technologicznie Genesis szybko wyprzedziła TG-16 w ilości sprzedanych sztuk i otrzymała największą popularność w roku 1990.

W tym samym roku Namco wydało Kyuukai Douchuuki, World Stadium '90, Final Lap 2, Pistol Daimyo no Bouken, Souko Ban Deluxe, Dragon Saber, Steel Gunner, Rolling Thunder 2, Golly! Ghost! i stworzyła nie wydany później prototyp gry Puzzle Club. W 1991 Sega wydałaSonic the Hedgehog w odpowiedzi na zbliżające się wydanie przez Nintendo nowej konsoli Super Nintendo Entertainment System.

Reklamy Segi podczas wakacji 1991 zwiększyły sprzedaż gry z ich nową maskotką. W tym samym roku Nintendo wydaje 16-bitową konsolę Super NES w celu rozpoczęcia rywalizacji z Genesis. Razem z konsolą sprzedawana była gra Super Mario World, nowa gra z serii Mario. Rok 1991 uznaje się za rozpoczęcie wojny 16-bitowców.

Wojny konsolowe: Sega kontra Nintendo

Sega i Nintendo mocno się przepychały, aby uzyskać dochody na rynku. Maskotka Segi Sonic the Hedgehog był reklamowany jako "lepsza" alternatywa dla Mario firmy Nintendo. Sega stworzyła termin marketingowy "Blast Processing", który miał pokazywać zaawansowanie technologiczne konsoli Genesis. Reklamy Segi były w tym czasie bardzo kontrowersyjne. Firma korzystała ze sloganów typu "Genesis does what Nintendon't" (ang. Genesis robi to, co Nintendo nie).

Nintendo w odwecie rozpoczęła reklamę serii gier Mario, The Legend of Zelda, Star Fox, Super Metroid, a później też Donkey Kong Country i wiele innych gier na konsole Super NES i Game Boy. Sega wydała Sonic the Hedgehog 2 w 1992 (w Wielkiej Brytanii i USA gra wydana została we "wtorek Sonica"), która stała się bardziej popularna niż część pierwsza. Krótko potem Nintendo wydało rozszerzone remaki oryginalnych gier Super Mario z konsoli NES na Super NES nazwane Super Mario All-Stars.

NEC reklamował swoją konsolę TurboGrafx 16 za pomocą maskotki Bonk. Ten jaskiniowiec z dużą głową występował w praktycznie wszystkich reklamach TurboGrafx od 1990 do 1994. Platforma została ciepło przyjęta w USA. Wersja japońska TurboGrafx, PC Engine, również została dobrze przyjęta w Japonii, głównie dzięki różnorodności tytułów dostępnych na nowym wtedy nośniku, jakim były płyty CD-ROM. NEC wydał dodatek CD w 1990, a w 1992 wydał kombinację TurboGrafx i napędu CD-ROM znaną jako TurboDuo.

Gdy wydana została gra Mortal Kombat i pojawiły się związane z nią kontrowersje, Nintendo zdecydowało się ocenzurować przemoc w grze ze względu na długo istniejącą zasadę cenzury. Sega nastomiast powstrzymała się od tego ruchu, co spowodowało umocnienie pozycji konsoli. Wersja Mortal Kombat dostępna na konsolę Segi była oceniania przez czasopisma wyżej. W rezultacie Nintendo przemyślało swoją decyzję i gdy wydana została następna część serii, Mortal Kombat II, nie została ona ocenzurowana.

Wielu (głównie młodszych) graczy nazywało siebie fanami Nintendo lub fanami Segi i wszyscy byli przeciwni drugiemu systemowi. Nawet czasopisma rywalizowały ze sobą w ten sposób wytykając przeciwnemu systemowi najdrobniejsze potknięcia.

W 1994 zaprzestano produkcji w Ameryce TurboGrafx 16 i jego kombinacji CD, Turbo Duo, z powodu małej ilości produktów. NEC wydała 32-bitową konsolę PC-FX w tym samym roku w Japonii. Istniały plany wydania konsoli w Stanach Zjednoczonych, lecz tam pojawiły się już wydajniejsze systemy 3DO i Atari Jaguar co spowodowało wycofanie się firmy NEC z tego pomysłu.

Dodatki

Nintendo, NEC i Sega rywalizowały ze sobą na polu dodatków do konsol. Firma NEC pierwsza wydała taki dodatek, którym był Turbo-Grafx CD z 1990. Cena 499,99 dolarów w czasie wydania była uznawana za trochę za wysoką. Mówi się jednak, że spowodowane to było sukcesem platformy w Japonii.

Sega stworzyła dwa dodatki: Sega Mega-CD (jako Sega CD w USA) i Sega 32X, lecz żaden z nich nie zdobył popularności. Sega CD przez wysoką cenę przy wydaniu (300 dolarów) i ograniczoną ilość gier, a 32X miał problemy techniczne i komercyjne (okazało się, że 32X nie działał z niektórymi modelami konsoli, a niektórzy sprzedawcy nie mogli nadążyć nad sprzedażą konsoli powodując niedobór konsol).

Nintendo również stworzyło dwa dodatki: Satellaview i Super Game Boy. Pierwszy to serwis satelitarny wydany jedynie na japońskim rynku, a drugi to "przejściówka" pozwalająca na uruchomienie gier z konsoli Game Boy na Super NES w kolorze.

Interesujące jest fakt, że Nintendo pracowało wraz z firmą Sony nad własnym dodatkiem napędu CD-ROM dla konsoli Super NES podobnego do Sega CD, lecz firma zdecydowała, że nie będzie projektu kontynuować, opowiadając się za firmą Philips, która stworzyła niezbyt popularny system CD-i.

Projekt napędu CD-ROM dla Super NES został anulowany przez Nintendo, lecz Sony wykorzystało go i po przeróbkach pod przewodnictwem Kena Kutaragiego (twórca chipu dźwiękowego dla SNES-a) wydała jako "Sony PlayStation". PlayStation drastycznie obniżyło sprzedaż CD-i zmuszając firmę Philips do wycofania produktu w 1998.

Import gier do Europy

Era 16-bitowców była również erą kupowania w Europie importowanych przez sklepy ze Stanów Zjednoczonych gier. Najczęściej sprowadzanymi grami były gry na konsolę SNES.

Ponieważ system PAL wykorzystywał szybkość odświeżania 50 Hz (w porównaniu do 60 Hz systemu NTSC) i rozdzielczość pionową 625 przeplatanych linii (576 wykorzystywanych), w porównaniu do 525/480 dla NTSC, gry stworzone pod system NTSC bez żadnych modyfikacji działały 17% wolniej i miały widoczne czarne pasy na górze i dole ekranu. Duże firmy, jak Konami optymalizowały gry pod system europejski. Mniejsi producenci tak nie robili

W Europie było wydawanych mało gier fabularnych ze względu na potrzebę tłumaczenia ich na różne języki. Ilość tekstu w grach RPG powodowała, że największym problemem było umieszczenie całego tłumaczenia na jednym kartridżu. Koszt wielu tłumaczeń byłby zbyt duży. Tylko w Wielkiej Brytanii były dostępne gry RPG, lecz nawet tam był to ułamek tego, co wydawane było w Stanach Zjednoczonych lub Japonii.

W tej erze popularne były tak zwane modchipy, które instalowane były w konsolach. Te chipy to akcesoria które omijały wbudowane mechanizmy sprzętowe. Jednak z powodu chipów Super FX i różnic w wykorzystywanych technikach ochronnych, europejscy gracze często musieli dokupować nowe konwertery co jakiś czas lub "modyfikować" (na przykład poprzez instalację modchipu) swoje konsole, aby móc poprawnie uruchomić importowane gry.

Niektórymi z popularnych importowanych ze Stanów Zjednoczonych gier były:

Final Fantasy IV
Final Fantasy VI
Secret of Mana
Street Fighter II
Chrono Trigger
Super Mario RPG: Legend of the Seven Stars

Pod koniec ery

Wraz z rokiem 1995 era 16-bitowców kończy się, ponieważ nowe systemy są produkowane (Nintendo i Sega) lub zostały już wydane (Sony i Philips). Te systemy nazwane były przez czasopisma o grach "superkonsolami" dzięki ich wtedy innowacyjnej trójwymiarowej grafice. Rok 1996 był ostatnim rokiem popularności 16-bitowców i ostatnim, w którym ich udział na rynku przekraczał 50 procent.










Made by Robson Studio 2010

wtorek, 9 marca 2010

Historia gier komputerowych (5 generacja)

W historii gier komputerowych era 32- i 64-bitowców była piątą generacją konsol gier wideo. Generacja piąta została nazwana w historii gier wideo erą 3D tak jak 7 generacja erą HD. W tej erze dostępne były zarówno 32-bitowe jak i 64-bitowe konsole, a rynek zdominowały konsole Sony PlayStation (1995), Sega Saturn (1994) i Nintendo 64 (1996), z których PlayStation skończyło najpomyślniej.

To właśnie te systemy toczyły wojnę konsol w tej erze (zobacz rozdział poniżej). 3DO i Atari Jaguar były również częścią tej ery, lecz ich słaby marketing okazał się mieć ogromny wpływ na ich popularność. W tej erze pojawiły się także dwie ulepszone wersje konsoli Game Boy: Game Boy Color i Game Boy Light (tylko w Japonii).

Liczba bitów w tej erze była swego rodzaju reklamowaniem technologii użytej przy produkcji konsol. Najbardziej znaną konsolą pod tym względem jest Nintendo 64. Liczba "bitów" podawana w nazwach konsol odnosiła się do wielkości słowa maszynowego, na którym operuje procesor konsoli i używana była przez reklamodawców jako "pokaz mocy".

Jednakże stosunkowo prosto było zwiększać wielkość słów maszynowych poza te 32 czy 64 bity - wydajność konsoli zależy od wielu czynników, jak na przykład szybkości zegara procesora, przepustowości czy wielkości pamięci operacyjnej.

Era 32- i 64-bitowców była również okresem wzrostu popularności emulatorów konsol oraz aktywności graczy na scenie moddingowej. Jednym z pierwszych tłumaczeń fanowskich, tłumaczenie gry Final Fantasy V, wydane zostało właśnie w tej erze.

Tłumaczenie tej gry uważane jest za główny czynnik spopularyzowania następnych części gier Final Fantasy w Stanach Zjednoczonych. Z powodu zwiększenia popularności obrazy ROM na konsole NES i SNES rozeszły się po Internecie i łatwiej było je znaleźć podczas szóstej generacji niż ery 32- i 64-bitowców.

Oto te konsole (kolejność Nintendo 64, Sega Saturn, Atari Jaguar,Commodore Amiga CD32, Sony Playstation, Badai Pippin)


























































Przejście do trójwymiaru

Era 32- i 64-bitowców najbardziej znana jest ze wzrostu popularności gier prezentowanych w pełnym trójwymiarze. Ponieważ gry te oferowały nową jakość, ta era została przez nie zdominowana usuwając w cień tradycyjne gry dwuwymiarowe er 16- i 8-bitowej. Super Mario 64 na Nintendo 64 i Tomb Raider na Saturn, a później również na PlayStation, były najlepszymi tego przykładami. Reklamowane były jako jedne z pierwszych w pełni trójwymiarowych gier na konsole.

Niezadowolenie starszych graczy

Wraz ze wzrostem popularności trójwymiarowych gier narodził się termin używany przez starszych graczy: "new school" gaming (granie "nowej szkoły"). Najczęściej używany jako określenie pejoratywne, odnoszące się do graczy grających w gry, ich zdaniem, pozbawione grywalności. Mówili oni, że młodsi gracze nastawiają się na nowinki techniczne w grach, a nie na same gry. Wielu krytyków, z których niektórzy zaczęli nazywać siebie old school gamerami (gracze staroszkolni), nazwali tę erę "rewolucją przemysłu" gier komputerowych i niewzruszenie mówili, że gry na konsole SNES były ciekawsze od tych w erze 32- i 64-bitowców (i idąc dalej również od tych dostępnych dzisiaj). Jedną z fundamentalnych różnic pomiędzy graczami staro- i nowoszkolnymi to nastawienie się tych drugich na bardziej rzeczywistą animację postaci z gier (która była już wykonana w grze Prince of Persia, lecz większe znaczenie miała animacja w pełnym trójwymiarowym środowisku, czyli w grach typu Tomb Raider czy Tekken) zamiast szybszej dwuwymiarowej gry akcji podobnej do kreskówki z tytułami, takimi jak Super Mario World czy Sonic the Hedgehog.

Inną fundamentalną zmianą było rozpowszechnienie technologii CD-ROM, która pozwoliła na dołączenie bardziej zawiłej fabuły do gier komputerowych. Krytycy mówili, że producenci zajmą się rozwijaniem fabuły zamiast grywalnością gier.

Wojny konsol

Era 32- i 64-bitowców była głównym okresem trwających do teraz "wojen konsolowych" pomiędzy producentami konsol. "Wojny konsolowe" to określenie na prześciganie się w informowaniu konsumenta o zaletach własnej konsoli i wadach rywali. Z powodu czasu, który upływał na tworzeniu konsol wzrastały oczekiwania konsumentów. Jednocześnie konsumenci byli pozostawieni jedynie na porównywanie spekulowanych zalet i wad konsol. Wiele wydarzeń i informacji były tworzone, aby zmylić klientów, zmiejszając tym samym ich zaufanie do firm produkujących konsole.

Pomimo dużego wsparcia od producentów gier, cena początkowa 3DO Interactive Multiplayer wynosząca 700 dolarów spowodowała, że nie zyskała ona ogromnej popularności.
Sega 32X, upgrade Mega Drive/Genesis i Sega [Mega-]CD, który wprowadzał na powyższe konsolę architekturę 32-bitową, został wydany rok przed wydaniem konsoli Saturn. Gracze, którzy zakupili 32X byli niezadowoleni z posunięcia Segi, ponieważ gdy została wydana konsola Sega Saturn, 32X stracił popularność. Ta pomyłka zrujnowała firmę Sega i jest uznawana za główną przyczynę porzucenia przez koncern tworzenia konsol, a zajęciem się tworzeniem gier.
Atari Jaguar został wydany w 1993, mając dobry start. Jednakże liczba dobrych gier na tę platformę okazała się bardzo mała (wartymi odnotowania są głównie Tempest 2000, Wolfenstein 3D, Doom i Alien vs. Predator). Również użyta w nim architektura 64-bitowa okazała się kontrowersyjna.
Czasopisma o grach cały czas porównywały specyfikacje sprzętowe wszystkich konsol używając niepewnych statystyk. Producenci konsol zazwyczaj podawali teoretycznie najwyższe wartości renderowania obiektów trójwymiarowych, nie wliczając w nie czasu potrzebnego dla sztucznej inteligencji, oświetlenia czy mapowania tekstur.
Na koniec Atari, mające problemy, zostało wykupione przez JT Storage (a później Infogrames) i przestało tworzyć sprzęt do gier.

Cd kontra kartridż

Podczas ery 32- i 64-bitowców Nintendo wykonało pewnego rodzaju kontrowersyjną decyzję robiąc z Nintendo 64 konsolę wykorzystującą kartridże. Nintendo broniło się mówiąc, że dzięki temu gry będą miały krótszy czas uruchamiania niż gdyby były wydawane na płytach CD oraz, że utrudnia to piractwo gier. Korzyści jednak też były niepewne, ponieważ produkcja kartridży była dużo droższa od produkcji płyt CD. Wtedy praktycznie wszyscy producenci konsol zaczęli wykorzystywać nową technologię napędów CD-ROM, a wielu producentów zaczęło produkować gry na Sony PlayStation. Spowodowało to małą wojnę pomiędzy graczami. "Wojna nośników" była dodatkowo pobudzana przez oświadczenia samych prezesów firm. Jeden z magazynów Nintendo pokazał statek kosmiczny (kartridż) obok ślimaka (płyty CD) i wezwał konsumentów do "zdecydowania", który jest lepszy.

Debata między zwolennikami kartridżów a płyt CD doszła do niesławnego finału, wydania gry Final Fantasy VII na konsolę PlayStation. Pomimo tego, że wszystkie poprzednie sześć części Final Fantasy zostało wydanych na konsole Nintendo, producent serii, Square (teraz znany jako Square Enix), zdecydował się wydać Final Fantasy VII na konsolę Sony. W odpowiedzi na to prezes Nintendo publicznie oświadczył, że Nintendo nie potrzebuje gier Square, ponieważ "gry firmy Square były słabe i powolne, a gracze nie chcą grać w gry słabe i powolne". Ta wypowiedź spowodowała masową falę krytyki zwróconą w stronę Nintendo i jej konsoli na kartridże.












Made by Robson Studio 2010

poniedziałek, 8 marca 2010

Historia gier komputerowych (6 generacja)

Szósta generacja (czasem nazywana erą 128-bitowców, zobacz sekcję poniżej) odnosi się do gier komputerowych, konsol i przenośnych konsol gier wideo dostępnych na początku XXI wieku. Platformy szóstej generacji to Sega Dreamcast, Nintendo GameCube, Sony PlayStation 2 i Microsoft Xbox.

Konsola PlayStation 2 zdominowała konkurencję sprzedając ponad 100 milionów sztuk. Xbox był na drugim miejscu z wynikiem 24 milionów sztuk, a Nintendo trzecie z 20,85 milionami sprzedanych GameCube'ów. Mówi się także, że Sega Dreamcast został sprzedany w 10 milionach egzemplarzy.

















































Liczba bitów

Liczba bitów w konsolach stała się normatywnym określeniem jakości konsol w erze 32-bitowców. Liczba “bitów” podawana przy nazwach konsol odnosiła się do słowa maszynowego na którym operuje procesor. Jednak wydajność konsol nie zależy wcale od wielkości słowa. Można bez problemów zwiększyć wielkość słowa maszynowego powyżej 32-bitów - wydajność konsoli zależy również od innych czynników, jak szybkość procesora konsoli, szybkości procesora graficznego, przepustowości i wielkości pamięci.

Sega Dreamcast, 32-bitowa i ostatnia konsola reklamowana ilością bitów, miała dwuinstrukcyjny 32-bitowy procesor, 64-bitową kartę graficzną i 64-bitową magistralę danych. Jeden z wielu procesorów PlayStation 2 znany jest jako “128-bitowy Emotion Engine”, lecz tak naprawdę jest on dwuinstrukcyjnym procesorem 64-bitowym. Nintendo GameCube jest wydajniejszy od PS2, mimo że posiada jednoinstrukcyjny 64-bitowy procesor.

Microsoft Xbox, który również jest wydajniejszy od PS2, używa natomiast 32-bitowego procesora i 256-bitowego procesora graficznego, czyli konfiguracji, która stała się standardem wielu komputerów osobistych. Ważność w ilości bitów na rynku konsol zmalała z powodu używania komponentów, które operują na różnych wielkościach słów maszynowych. Sega Dreamcast i PlayStation 2 były ostatnimi konsolami, używającymi terminu “128-bitów” w ich marketingu w celu opisania ich możliwości.

Konsole przenośne

Podczas szóstej generacji rynek przenośnych konsol gier wideo znacznie się rozszerzył dzięki wprowadzeniu nań nowych urządzeń od różnych producentów. Nintendo utrzymało większą część rynku dzięki wydaniu w 2001 ulepszonej wersji konsoli Game Boy nazwanej Game Boy Advance.

Następnie firma wydała dwa odświeżone wersje systemu: Game Boy Advance SP w 2003 i Game Boy Micro w 2005. Podczas tej generacji wprowadzone zostały na rynek również Neo Geo Pocket Color w 1998 i Bandai WonderSwan Color w Japonii w 1999. Warto odnotować, że w 2001 koreańska firma Game Park wydała własny przenośny system GP32, który był pierwszą przenośna konsolą gier wideo o strukturze open-source.

Główną innowacją na rynku stało się dodawanie do konsol możliwości, które nie były przeznaczone do grania. Wszystkie możliwości, jak telefon komórkowy, odtwarzacz MP3, przenośny odtwarzacz filmów czy nawet palmtop, były dodawane do istniejących konsol. Pierwszą taką hybrydą była Nokia N-Gage, która wydana została w 2003 i była reklamowana głównie jako telefon komórkowy.

Później, w 2004, konsola została przerobiona i wydana jako N-Gage QD. Drugą taką konsolą był Zodiac, firmy Tapwave wydany w 2004, bazujący na Palm OS. W konsoli znalazło się wiele opcji zwykle dostępnych w palmtopach.

Gdy coraz więcej przenośnych konsol pojawiało się na rynku pod koniec generacji, trudno było określić, kiedy dokładnie kończy się szósta i rozpoczyna siódma generacja. Zwykle mówi się, że siódma generacja rozpoczęła się pod koniec 2004 wydaniem przez Nintendo konsoli Nintendo DS i PlayStation Portable firmy Sony.

Kontrowersyjność

Osobny artykuł: Kontrowersyjność gier komputerowych.
Podczas tej generacji gry komputerowe stały się obiektem krytyki osób publicznych za "niepożądaną" zawartość prezentowaną w grach (seks, przestępstwa, przemoc, przekleństwa, użycie narkotyków czy społeczna propaganda oraz poruszanie w grach takich tematów, jak religia, polityka, feminizm czy ekonomia).

Jednakże większość krytyki była nieprawidłowa, gdyż w większości dotyczyła gier wydanych dawno temu, jak Wolfenstein 3D, Doom, Mortal Kombat czy Night Trap.

W szóstej generacji warte odnotowania były również sprawy sądowe wytoczone kilku firmom z przemysłu gier komputerowych.

Najbardziej znaną sprawą była sprawa gier Grand Theft Auto III i Grand Theft Auto: Vice City, których producenci zostali oskarżeni o ukryty rasizm i podżeganie do popełniania wykroczeń, natomiast Grand Theft Auto: San Andreas dostała plakietkę "tylko dla dorosłych" z powodu odnalezienia w grze minigierki pozwalającej na odbycie stosunku z dziewczynami bohatera za pomocą modyfikacji Hot Coffee.

W szóstej generacji doszło do zamachu na World Trade Center i Pentagon, co miało duży wpływ na przemysł rozrywkowy, jak i na przemysł gier komputerowych powodując zmniejszenie wydźwięku wielu gier. Najbardziej znanym przykład jest Metal Gear Solid 2, który do czasu wydania przedstawiał w grze zniszczenie Statuły Wolności i dużej części Manhattanu.

Emulatory i stare gry

Z powodu zwiększonego użycia emulatorów i coraz łatwiejszemu dostępowi do wyszukiwarek obrazów ROM na poprzednie konsole gier wideo, szósta generacja gier zbiegła się ze wzrostem popularności emulacji konsol.

Był to również okres, w którym klasyczne gry były ulepszane lub ponownie dystrybuowane na nowsze systemy. Na przykład Nintendo wydało serię "klasycznych" gier dla konsol NES i SNES na przenośną konsolę Game Boy Advance. Innymi takimi grami były m.in. Wild ARMs: Alter Code F, Final Fantasy I & II: Dawn of Souls czy Metroid: Zero Mission.

Również duża część third-party developerów wydała antologie gier (wśród tych firm były między innymi Midway Games, Capcom, Namco, Atari czy Sega). Dodatkowo szósta generacja była również okresem, w którym duża liczba gier lub serii gier początkowo wydanych w Japonii zaczęła być sprzedawana w Ameryce Północnej i Europie.










Made by Robson Studio 2010

piątek, 5 marca 2010

Historia gier komputerowych (7 generacja)

7 generacja


Siódma generacja to era gier komputerowych w historii, która rozpoczęła się z początkiem 2005 wydaniem konsoli Xbox 360. Całkowite przejście do siódmej generacji miało miejsce w 2006 razem z wydaniem nowych konsol gier wideo od firm Nintendo i Sony.

Microsoft nazwał tę generację "erą High Definition", tak, jak piąta generacja została nazwana "erą 3D".
Konsole gier wideo Siódma generacja konsol gier wideo rozpoczęła się wydaniem Xbox 360 22 listopada 2005.

Konsole tej generacji

















































Przenośne konsole


Dla przenośnych konsol gier wideo siódma generacja rozpoczęła się z wydaniem przez Nintendo konsoli Nintendo DS. Ten system bazuje na zupełnie innym projekcie od Game Boya.


Nintendo DS w porównaniu do poprzednich generacji oferował nowy sposób kontrolowania gry i nowe możliwości: Ekran dotykowy i mikrofon. Konsola ta wydana została w drugiej połowie 2004. Mniej więcej w tym samym czasie Sony wydało swój pierwszy przenośny system, PlayStation Portable, w Japonii.


Pomimo wydania w podobnym czasie PlayStation Portable nie był reklamowany do tej samej publiki, co Nintendo DS. Również w 2005 wydana została konsola Gizmondo firmy Tiger Telematics.

2005 i 2006, odpowiednio, były latami wydania GP2X od Gamepark Holdings i oficjalnego ogłoszenia XGP firmy GamePark. Obydwie konsole idą innymi ścieżkami marketingu od DS czy PlayStation Portable. Obydwie mają pracować na systemie operacyjnym bazującym na Linuksie z architekturą open-source w celu zwiększenia możliwości tych urządzeń. GP2X jest dwuwymiarowym systemem, który bardziej nadaje się do słuchania muzyki i oglądania plików wideo skopiowanych na urządzenie przez użytkowników.


XGP ma być trójwymiarową przenośną konsolą podobną do PlayStation Portable, stworzoną dla komercyjnych gier. Producent obiecuje architekturę opartą na jądrze Linuksa oraz jednocześnie obsługę systemu Windows CE. XGP ma być bardziej rozbudowany od GP2X. Ma on oferować podobne możliwości zapisywania danych i jednocześnie ma obsługiwać zawartość streamowaną, jak przenośną telewizję T-DMB i Wi-Fi.





























made by Robson Studio 2010

czwartek, 4 marca 2010

Projekt Natal














Microsoft przedstawił założenia projektu Natal - technologii, która może zrewolucjonizować rynek elektronicznej rozrywki. Umożliwia ona zarządzanie domowym centrum multimediów bez konieczności posiadania pilota sterowania - zgodnie z hasłem konferencji Microsoftu na targach E3, kontrolerem jest sam użytkownik!

Natal to zaawansowany system sterowania, wiernie odwzorowujący ruchy użytkownika - kamera śledzi jego zachowanie i rejestruje wykonywane przez niego gesty, tłumaczone następnie na język zrozumiały dla systemu. Człowiek może też wydawać polecenia głosowe i w ten sposób zarządzać np. odtwarzaniem multimediów. Microsoft zapowiedział, że z technologią zintegrowane będą konsole Xbox 360. Co więcej, mają z nią współpracować nie tylko konsole przyszłych generacji, ale także modele obecnie dostępne w sprzedaży.





W prezentacji na E3 wzięły udział takie gwiazdy, jak Steven Spielberg i Peter Molyneux. Ten ostatni pokazał możliwości technologii na przykładzie Milo - awatara egzystującego w wirtualnym świecie gry, wchodzącego w interakcje z użytkownikiem (Milo patrzący w jego kierunku, reaguje na głos a nawet rozpoznaje wiadomości ręcznie "napisane" przez użytkownika na ekranie telewizora). "To technologia, o której fantastyka naukowa nawet nie wspominała, i ta technologia działa. Dzisiaj." - mówił słynny twórca gier komputerowych.

Prasa i serwisy internetowe także rozpływają się w zachwytach nad technologią. "To Nintendo Wii bez Wii-remote, Sony Eye Toy z o wiele lepszym obrazem. Obietnica interakcji bez kabli i gadżetów.





























Made by Robson Studio 2010

środa, 3 marca 2010

Nintendo Wii










Nintendo Wii


Wii zapowiadało się niezwykle ciekawie. Rewelacyjny pomysł na wykorzystanie kontrolera w grach, interesujące tytuły, nowe możliwości. Gdzieś jednak w okolicach startu konsoli, coś zaczęło się lekutko gubić. W efekcie pojawiła się na rynku konsola, stojąca w głębokim cieniu X360 i nieśmiało spoglądająca na miotającą się między skrajnościami PS3. A jakie naprawdę drzemią w niej możliwości?

Po pierwszym uruchomieniu konsoli zostajemy poproszeni o podanie kilku informacji, takich jak język (brak polskiego), data, czy godzina. Następnie trafiamy do miejsca, które będzie nam, się objawiało zawsze po uruchomieniu Wii. Do pulpitu sterowania. Na owym pulpicie znajdziemy ekrany symbolizujące kanały Wii, dzięki którym będziemy uruchamiać poszczególne funkcje konsoli. Od razu chciałbym powiedzieć, że włożenie płyty, nie spowoduje automatycznego uruchomienia gry. Trzeba ją odpalić przez odpowiedni kanał. No, ale po kolei.

Pierwszym kanałem jest właśnie kanał czytnika, dzięki któremu jesteśmy w stanie uruchamiać wrzucone do konsoli gry. Cała operacja sprowadza się do kliknięcia w ekranik kanału, a potem na wybór przycisku Start, więc nie ma się co obawiać.

Kolejnym kanałem jest kanał Mii. Mii, to takie nintendowe alter ego gracza. Tworzymy swoją postać w świecie Wii, dzięki czemu możemy w ciekawszy sposób współzawodniczyć z innymi graczami, czy brać czynny udział w życiu społeczności Wii (o ile mamy konsolkę podłączoną do netu). Mii tworzymy ile chcemy (w mojej rodzinie każdy ma swój odpowiednik w konsoli – nawet teściowie). Co ciekawe, postacie owe nie są związane na stałe z konsolą. Można je zabierać ze sobą przenosząc je w Wiilocie. Sympatyczne rozwiązanie, dzięki czemu możemy zawsze mieć swoją postać pod ręką. Przy tworzeniu swojego Mii, dostajemy do dyspozycji dość dużo opcji dotyczących wyglądu postaci. Właściwie nie całego wyglądu, bo głównie skupiamy się na twarzy. Wzrost, tusza i ubiór zostały potraktowane po macoszemu i możliwość zmiany tych trzech elementów jest bardzo ograniczona. Jednak jeśli chodzi o twarze, to możemy spokojnie spędzić przy takiej kreacji kilkanaście minut (a nawet więcej dla wybrednych).


Kolejny kanał, to kanał zdjęciowy. Dzięki niemu, można przeglądać zdjęcia zrobione aparatem cyfrowym nagrane na karcie SD. W zasadzie nie tyko oglądać, bo i edytować. Po zdjątkach można rysować, zmieniać nasycenia kolorów, wstawiać pewną ilość ograniczonych efektów graficznych. Szkoda tylko, ze zmienionego zdjęcia nie da się zapisać na karcie SD. Jedyne co można zrobić, to zawiesić takie zdjęcie na forum Wii. W przeglądaniu zdjęć pomaga rewelacyjny slideshow. W tle gra muzyczka, a zdjęcia na ekranie żyją. Wjeżdżają majestatycznie w pole widoku, powiększają się, po prostu fantazja.

Kolejne kanały są dedykowane użytkownikom podłączonym do sieci. Zakupy z Wii, społeczność Wii. Niestety nie dane mi było ich zakosztować. Dalej jest pełno pustych miejsc, co oznacza, że powinny się z czasem pojawić nowe kanały. Tych miejsc jest dość duża ilość. Na co zostaną wykorzystane? Nie wiem, ale pewnie dowiemy się tego w odpowiednim czasie.

Opis


Konsola znana jest głównie ze swojego bezprzewodowego kontrolera, pilota Wii, który może być używany jako urządzenie wskazujące i może wykrywać ruch w trzech wymiarach. Ważnym elementem konsoli jest również usługa WiiConnect24, która pozwala na otrzymywanie wiadomości i uaktualnień za pośrednictwem Internetu jednocześnie zużywając bardzo małą ilość energii elektrycznej.

Krytyka


Tuż przed targami Nintendo wywołało burzę. Zmieniając nazwę ze świetnego "Revolution" na już nie tak świetne "Wii" wzbudziło falę krytyki, niechęci i miłości w jednym. Żebyśmy się dobrze zrozumieli - u mnie głównie niechęci i krytyki, a dopiero później miłości. W dodatku stałe zapewnienia, że nowa konsola będzie dużo słabsza technologicznie od konkurentów i ma stawiać na proste i krótkie gry, dopełniło obrazu nędzy i rozpaczy. Pomachałem Wii na pożegnanie i postanowiłem żyć dalej u boku Sony i Microsoftu.


Nintendo przekonuje, że nadeszła pora, żebyśmy wyrzucili za okno przestarzałe pady i joysticki. To co oferuje firma z Kyoto jest odpowiednikiem PC-towej myszki, połączonej z pointerem. A wszystko działające w trójwymiarowej przestrzeni. W jaki sposób? Przypominające pilota do telewizora urządzenie przesyła do konsoli dane dotyczące swojego położenia w przestrzeni. Wii wie dzięki temu dokładnie, co robimy z pilotem i przekłada ruchy na ekran telewizora. Jakkolwiek głupio to nie brzmi, technologia działa nienajgorzej.


Drugą częścią pada, którą z pilotem łączy cienki kabelek, jest przystawka "nunchaku". Na niej jest zamontowany tradycyjny grzybek analogowy, a całość jest wyposażona w akcelerometr, czyli przyrząd mierzący wychylenia i przyspieszenia naszej lewej dłonii.

Nowatorski kontroler to główna karta przetargowa Nintendo i na jego prezentacji zależało Nintendo najbardziej. Prezentacje grania za pomocą wii-mote'a w tennisa (gracz musi machać padem jak rakietą), gry RPG (tu pilot zamienia się w miecz, albo łuk) i FPS-y (pilot pełni rolę pistoletu). Nie obyło się bez wpadek - widać że technologia jest nowa zarówno dla graczy, jak i producentów i jeszcze nie wszyscy wiedzą, jak wykorzystać drzemiący w nim potencjał.. Jedno wiadomo na pewno. Nowy sposób sterowania wymaga treningu przyzwyczajenia, ale potem jest już z górki.


PSP Go









PSP Go

Nie da się ukryć, że premierze PSP Go nie towarzyszyło nawet nie tyle szaleństwo, co chociaż mała wrzawa. Nie było kilometrowych kolejek, nie było zdumiewających wyników sprzedaży. Trudno się zresztą dziwić, bo kupowanie PSP Go przy obecnej polityce cenowej Sony zwyczajnie pozbawione jest racjonalnych przesłanek ekonomicznych. Mimo to, jeśli wierzyć Gamevision, firma znów chce nas przekonać do swoich pomysłów.


Wspomniana strona powołując się na swoje wewnętrzne źródło w Sony donosi, iż korporacja zamierza zorganizować coś w rodzaju ponownej premiery konsoli. Wydarzeniu towarzyszyć by miały spore działania marketingowe i być może obniżka ceny. Czy to jednak pomoże? Śmiem twierdzić, że dopóki gry w cyfrowej dystrybucji nie będą tańsze od tych, które wydawane są na UMD, to nie.

Opis

Wynika, że najnowszy model PlayStation Portable nie jest aż taki mniejszy od poprzenich wersji jakby to mogło się wydawać. PSP Go, dzięki wbudowanemu systemowi Bluetooth, będzie można podłączyć kontrolery od konsoli PS3 (Sixaxis lub Dualshock 3).


Inną nową, na pewno przydatną funkcją, będzie możliwość przeglądania XMB, bez potrzeby wyłączania gry. Więc w trakcie gry bez problemu będzie można zatrzymać ją, skorzystać z możliwości XMB i wrócić do zatrzymanej wcześniej rozgrywki.


Teraz troszkę danych technicznych. Nowa wersja PSP będzie ważyła ok. 158g, jej wymiary to 128mm szerokości, 16.5mm wysokości oraz 69mm głębokości. Zamontowany tam wyświetlacz, o przekątnej 3.8 cali będzie oczywiście w formacie 16:9 o rozdzielczości 480 × 272 pixeli. Jako źródła zasilania będą służyć: bateria Lithium-ion, AC Adaptor (ładowarka) oraz połączenie USB.


Pamięć wbudowana w konsolę to 16GB, ale będzie można oczywiście dokupić kartę pamięci Memory Stick Micro (M2). Niestety PSP Go nie posiada wejścia UMD i wszystkie gry trzeba będzie pobrać z Playstation Store, a nie użyć starych z reszty PSP.

Krytyka

Wciskanie triggerów schowanych pod ekranem jest niewygodne i sprawia, że cała konsola przechyla się w tę i w tę, do czego przyczynia się niewielka masa sprzętu.

Nowością PSP Go jest całkowita rezygnacja z napędu UMD i postawienie na cyfrową dystrybucję.żne konsekwencje dla przyszłości urządzenia.

Po pierwsze starzy urzytkownicy PSP, nie przesiądą się na wersję Go, bo zostaną im gury płytek, z którymi nic nie zrobią.
Po drugie w krajach takich, jak Polska, gdzie idea kupowania czegokolwiek przez internet jest wciąż mało popularna, rezygnacja z fizycznego nośnika danych jest poważną barierą psychologiczną.





Xbox 360











Xbox 360 to druga konsola gier wideo wyprodukowana przez firmę Microsoft. Została opracowana we współpracy z IBM, ATI i SiS. Xbox 360 to następca konsoli Xbox, konkuruje z Sony PlayStation 3 i Nintendo Wii w ramach siódmej generacji gier konsolowych. Platforma zintegrowana jest z usługą Xbox Live, usługą pozwalającą graczom na rywalizację w trybie online i pobieranie treści, takich jak gry zręcznościowe, dema gier, filmy z gier, programy telewizyjne oraz filmy.

Opis

Konsola Xbox 360 napędzana jest zaprojektowanym specjalnie dla niej trzyrdzeniowym procesorem PowerPC taktowanym zegarem 3,2 GHz z 1 MB cache L2. W standardowej konfiguracji zamontowano w niej 512 MB pamięci GDDR3 oraz pracujący z częstotliwością 500 MHz i wyposażony w dodatkowe 10 MB wbudowanego RAM-u chip graficzny firmy ATI. Znajdujący się na wyposażeniu dysk twardy można w łatwy sposób odłączyć albo powiększyć - kupując konsolę w sklepie dostaniemy HDD o pojemności 20 GB. Uruchamiane na niej gry będą pracowały w rozdzielczości 720x1080. W każdej produkcji domyślnie zostanie włączony antyaliasing.

Krytyka


Konsola Xbox 360 jest podatna na wiele problemów natury technicznej. Od momentu wprowadzenia na rynek w 2005 roku, produkt zyskał wątpliwą markę pod względem sprawności i dużej wadliwości. W szczególności, często spotykanymi błędami są przegrzewanie się konsoli, błędy przy odczytywaniu dysków, porysowane płyty, a także zacinający się mechanizm otwierania i zamykania napędu DVD.

W odpowiedzi na dużą wadliwość Microsoft rozszerzył okres gwarancyjny na konsole Xbox 360 do trzech lat dla wszystkich błędów, które powodują wyświetlanie się trzech czerwonych lampek na konsoli (tzw. "czerwony pierścień śmierci"). Inne problemy techniczne nie są objęte rozszerzonym okresem gwarancji. Jednocześnie Microsoft wprowadził modyfikacje do nowoprodukowanych konsol, mające poprawić stabilność i zmniejszyć awaryjność działania. Do dzisiaj jednak nie naprawiono wszystkich błędów, lecz wersje z HDMI są dużo mniej awaryjne. Należy również dodać, że konsole z 2007 r. mają poprawiony układ chłodzenia co eliminuje problem"pierścienia śmierci". Najnowsza wersja Xbox'a 360 według Microsoftu eliminuje do końca problem z "RRoD".

Nowym problemem coraz częściej nawiedzającym użytkowników konsoli Xbox 360 jest E74, pod pozornym błędem kabla AV najczęściej stoi uszkodzenie lub przegrzanie chipu skalującego typu ANA/HANA. Jest to błąd ekranowy i w przypadku RROD'a na ekranie możemy ujrzeć planszę z numerem błędu (E XX) jak i informację: "Błąd systemu. Skontaktuj się z Pomocą Techniczną dla konsoli Xbox." w różnych językach.