środa, 2 czerwca 2010

Informacja

Każdy ************, który bez pozwolenia ogląda i kopiuje zawartość tego blogu zostanie natychmiastowo *************. Wy ******* jak można być takimi ********.

Admin Blogu

wtorek, 1 czerwca 2010

E3









Electronic Entertainment Expo, znane także jako albo E3, jest największą coroczną wystawą przemysłu gier komputerowych i wideo. Ekspozycja jest otwarta tylko dla ekspertów branżowych oraz dziennikarzy. Od 2009 nastąpił powrót do starej formy targów, tzn. otwartej dla wszystkich chętnych.

E3 jest zazwyczaj organizowane w trzeci tydzień maja w hali Los Angeles Convention Center w los Angeles. W latach 90. przez dwa lata ekspozycja odbywała się w Atlancie. Według Entertainment Software Association (w skrócie ESA; z ang. Stowarzyszenie Producentów Oprogramowania Służącemu Rozrywce) w 2005 roku wystawę odwiedziło ponad 70 000 ludzi.

Pierwsze E3 zostało zorganizowane przez Interactive Digital Software Association (obecnie ESA) w 1995 roku. Przedtem większość producentów wystawiała swoje produkty na innych targach komputerowych takich jak Consumer Electronics Show oraz European Computer Trade.

16 - 17 czerwca Targi E3 w Los Angeles 2010

środa, 19 maja 2010

Transformator

Transformator (z łac. transformare – przekształcać) – urządzenie elektryczne służące do przenoszenia energii elektrycznej prądu przemiennego drogą indukcji z jednego obwodu elektrycznego do drugiego, z zachowaniem pierwotnej częstotliwości. Zwykle zmieniane jest równocześnie napięcie elektryczne (wyjątek stanowi transformator separacyjny, w którym napięcie nie ulega zmianie).

Transformator umożliwia w ten sposób na przykład zmianę napięcia panującego w sieci wysokiego napięcia, które jest odpowiednie do przesyłania energii elektrycznej na duże odległości, na niskie napięcie, do którego dostosowane są poszczególne odbiorniki. W sieci elektroenergetycznej zmiana napięcia zachodzi kilkustopniowo w stacjach transformatorowych.


Budowa
Transformator zbudowany jest z dwóch lub więcej cewek (zwanych uzwojeniami), nawiniętych na wspólny rdzeń magnetyczny wykonany zazwyczaj z materiału ferromagnetycznego.

Oba obwody są zazwyczaj odseparowane galwanicznie, co oznacza, że nie ma połączenia elektrycznego pomiędzy uzwojeniami, a energia przekazywana jest przez pole magnetyczne. Wyjątkiem jest autotransformator, w którym uzwojenie pierwotne i uzwojenie wtórne posiadają część wspólną i są ze sobą połączone galwanicznie.

Zasada działania

Jedno z uzwojeń (zwane pierwotnym) podłączone jest do źródła prądu przemiennego. Powoduje to przepływ w nim prądu przemiennego. Przemienny prąd wywołuje powstanie zmiennego pola magnetycznego. Zmienny strumień pola magnetycznego, przewodzony przez rdzeń transformatora, przepływa przez pozostałe cewki (zwane wtórnymi).

Zmiana strumienia pola magnetycznego w cewkach wtórnych wywołuje zjawisko indukcji elektromagnetycznej – powstaje w nich zmienna siła elektromotoryczna (napięcie).

Jeżeli pominie się opór uzwojeń oraz pojemności między zwojami uzwojeń i przyjmie się, że cały strumień magnetyczny wytworzony w uzwojeniu pierwotnym przenika przez rdzeń do uzwojenia wtórnego (nie ma strat pola magnetycznego na promieniowanie), to taki transformator nazywamy idealnym.

Bateria anodowa



Bateria anodowa to zespół ogniw galwanicznych lub akumulatorów służący do zasilania obwodów anodowych lamp elektronowych.
Przykładowe napięcia:
22,5 V - do aparatu słuchowego na lampach subminiaturowych
67,5 V - do radioodbiornika Szarotka na lampach miniaturowych
60 i 80 V - do radiostacji RBM-1.

Ogniwo galwaniczne

Ogniwo galwaniczne - ogniwo chemiczne, w którym źródłem prądu są reakcje chemiczne zachodzące między elektrodą, a elektrolitem. Dwie elektrody zanurzone w elektrolicie (półogniwa) tworzą ogniwo galwaniczne. Różnica potencjałów elektrod to siła elektromotoryczna ogniwa (SEM).





Praktycznym przykładem najprostszego ogniwa są dwie blaszki z różnych materiałów (np. miedź i nikiel) przedzielone papierem nasączonym elektrolitem (słoną wodą a nawet śliną).
Istnieje także pojęcie ogniwa pasożytniczego, a więc ogniwa pojawiającego się samoistnie w niezamierzonym miejscu i powodującego niekorzystne skutki np.:



korozja metali - pasożytnicze ogniwo pojawia się np. na zanieczyszczonych i wilgotnych połączeniach dwóch różnych metali lub np. pomiędzy kadłubami statków zanurzonych w elektrolicie (wodzie morskiej) wykonanych z różnych metali



szumy elektryczne - mikroogniwa na zabrudzonych stykach



ogniska zapalne - ogniwa tworzące się na implantach wewnątrz organizmu

Przykłady ogniw galwanicznych:
ogniwo Leclanchégo
ogniwo Daniella
ogniwo ołowiowe
ogniwo Westona

Aparat fotograficzny

Aparat fotograficzny, potocznie aparat – urządzenie służące do wykonywania zdjęć fotograficznych. Pierwowzorem aparatu fotograficznego było urządzenie nazywane camera obscura.

Tradycyjny aparat fotograficzny jest urządzeniem przystosowanym do naświetlania materiału światłoczułego, umieszczanego we wnętrzu aparatu w postaci zwiniętej błony, wymiennej kasety z błonami ciętymi, lub też kliszy szklanej. Obecnie aparaty fotograficzne na błony małoobrazkowe są wypierane przez aparaty cyfrowe, gdzie elementem światłoczułym jest matryca z elementami fotoelektrycznymi.

Podstawowe części składowe tradycyjnego aparatu (fotooptycznego)
obiektyw fotograficzny
migawka
korpus światłoszczelny
układ celowniczy
mechanizm do przesuwu i wymiany błony fotograficznej
elementy dodatkowe:
gniazdo synchronizacji lampy błyskowej
lampa błyskowa
dalmierz
światłomierz
samowyzwalacz

Podział aparatów fotograficznych

Aparat fotograficzny marki Polaroidprzeznaczenie:
aparat popularny
aparat profesjonalny
technologia
aparat analogowy
aparat cyfrowy
budowa
aparat przeziernikowy
aparat skrzynkowy
aparat mieszkowy
aparat dalmierzowy
lustrzanka
lustrzanka jednoobiektywowa
lustrzanka dwuobiektywowa
aparat studyjny
lotniczy aparat fotograficzny
wielkość klatki filmu
małoobrazkowe – 24 x 36 mm
aparat średnioformatowy – 4,5x6, 6x6, 6x9 (6x7, 6x8) cm
aparat wielkoformatowy – od 4x5 cala
sterowanie
ręczne (manualne)
automatyczne
autofocus z automatycznym ustawianiem ostrości

Lustrzanka - aparat fotograficzny wyposażony w lustro i matówkę. Zadaniem zespołu lustra i matówki jest dokładna prezentacja bieżącego kadru. Rozwiązanie takie ma znaczenie przy precyzyjnym nastawianiu odległości fotografowania, ocenianiu głębi ostrości, ocenie aberracji optycznych, jak również przy prawidłowym kadrowaniu obiektów nieodległych. Sprzyja również kompozycji kadru, ocenie proporcji oświetlenia itp.


Klasyczny aparat fotograficzny - jedna z dwóch podstawowych odmian aparatów fotograficznych (drugą jest aparat cyfrowy).

Analogowy aparat fotograficzny jest urządzeniem przystosowanym do naświetlania materiału światłoczułego. Materiał ten umieszcza się we wnętrzu aparatu, w postaci zwiniętej błony, która jest przewijana wewnątrz aparatu za pomocą odpowiedniego mechanizmu, dla naświetlenia każdej z klatek filmu, lub też stosowane są wymienne kasety z błonami ciętymi, które na potrzeby każdego zdjęcia wymienia się na tylnej ścianie aparatu.










Aparat cyfrowy (potocznie: cyfrak lub cyfrówka) – aparat fotograficzny rejestrujący obraz w postaci cyfrowej.

Aparat cyfrowy zapisuje obraz podobnie jak informacje w pamięci komputera. Jego zaletą jest to, że otrzymane zdjęcia mogą być w prosty sposób zmieniane na komputerze, a następnie drukowane w dowolnej liczbie kopii.

Karty pamięci, stosowane w aparatach cyfrowych jako nośnik danych, mogą pomieścić dużo więcej zdjęć niż błony fotograficzne, w związku z tym fotografowanie za pomocą aparatów cyfrowych jest tańsze. Ponadto nieudane zdjęcia można usunąć.

środa, 12 maja 2010

Oscyloskop

Oscyloskop — przyrząd elektroniczny służący do obserwowania, obrazowania i badania przebiegów zależności pomiędzy dwiema wielkościami elektrycznymi, bądź innymi wielkościami fizycznymi reprezentowanymi w postaci elektrycznej.

Oscyloskop został wynaleziony przez Thomasa Edisona. Stosuje się go najczęściej do badania przebiegów szybkozmiennych, niemożliwych do bezpośredniej obserwacji przez człowieka.

Budowa

W oscyloskopie analogowym przebieg po wzmocnieniu steruje w płaszczyźnie pionowej plamką świetlną na ekranie oscyloskopu a w poziomie plamka jest sterowana albo z regulowanego generatora podstawy czasu (dzięki temu uzyskujemy obraz zmian napięcia sygnału w czasie), albo z sygnału odniesienia (rejestracja zależności dwóch przebiegów - patrz krzywe Lissajous).


Oscyloskop analogowy zazwyczaj nie posiadał możliwości zapamiętania przebiegu, więc w celu stałego wyświetlania go na ekranie oscyloskopu musiał być podawany cyklicznie, dlatego też w celu takich właśnie przebiegów najczęściej był używany (przebiegi prądu zmiennego).




Zmieniło się to wraz z wprowadzeniem oscyloskopów cyfrowych, które potrafią „zapamiętać” przebieg sygnału i odtworzyć go na ekranie nawet po jego zaniku.



Dzięki zastosowaniu układów pamięciowych i przetworników analogowo-cyfrowych w oscyloskopach cyfrowych, lampa oscyloskopowa stała się zbędna i została wyeliminowana przez mniejsze i bardziej uniwersalne wyświetlacze ciekłokrystaliczne.


Rodzaje

Rozróżnia się trzy rodzaje oscyloskopów:

z odchylaniem ciągłym lub okresowym,
uniwersalne z odchylaniem ciągłym i wyzwalanym,
szybkie (bardzo dużej częstotliwości).
W zależności od technologii analizy sygnału wyróżnić można oscyloskopy:

analogowe z lampą oscyloskopową, na której obraz generowany jest w wyniku oddziaływania obserwowanych przebiegów na układ odchylania wiązki elektronowej;
cyfrowe z monitorem wyświetlającym obraz wygenerowany przez układ mikroprocesorowy na podstawie analizy zdigitalizowanych sygnałów wejściowych.
Oscyloskopy mogą występować jako system wbudowany albo oprogramowanie.

Z uwagi na sposób pomiaru dzieli się oscyloskopy analogowe na:

oscyloskop jednostrumieniowy — może pracować także w systemie dwukanałowym, sygnały badane z zakresu 0 Hz do ok. 3 GHz;
oscyloskop dwustrumieniowy — lampa oscyloskopowa o dwóch strumieniach elektronów, co pozwala na jednoczesne badanie dwóch sygnałów, posiadają jeden generator podstawy czasu;
oscyloskop stroboskopowy (próbkujący) — z badanego przebiegu pobiera próbki przesunięte w czasie, a obwiednia jest zapisem sygnału, stosowany do badania przebiegów powtarzalnych;
oscyloskop z pamięcią — pozwalają na pomiary różnych sygnałów, także aperiodycznych.
Symulacje

piątek, 9 kwietnia 2010

Głośnik



Głośnik - przetwornik elektroakustyczny (odbiornik energii elektrycznej) przekształcający prąd elektryczny w falę akustyczną. Idealny głośnik przekształca zmienny prąd elektryczny o odpowiedniej częstotliwości na falę akustyczną proporcjonalnie i liniowo. Rzeczywisty zakres częstotliwości, w którym głośnik wytwarza falę ciśnienia proporcjonalnie do napięcia (z dopuszczalnym odchyleniem) nazywa się pasmem przenoszenia głośnika.

Głoniki dzielimy na :

Magnetoelektryczne (dynamiczne) - w polu magnetycznym magnesu (rys. magnet) umieszcza się przewodnik (cewkę magnetyczną) (rys. Voice coil), w którym płynie prąd elektryczny. Oddziaływanie magnesu i przewodnika z prądem wywołuje ruch przewodnika, do którego przymocowana jest membrana (rys.cone). Cewka jest połączona sztywno z membraną a całość jest odpowiednio zawieszona (rys. spider i surround), tak aby zapewnić osiowy ruch cewki w szczelinie magnesu bez ocierania się o magnes.

Elektromagnetyczne - przepływ prądu o częstotliwości akustycznej powoduje powstanie zmiennego pola magnetycznego. Pole to magnesuje ferromagnetyczny rdzeń połączony z membraną. Przyciąganie i odpychanie rdzenia powoduje drgania membrany.

Elektrostatyczne - na naelektryzowaną membranę z cienkiej folii (mającą napyloną warstwę metaliczną z jednej lub dwu stron, bądź będącą elektretem) oddziałują dwie perforowane elektrody, umieszczone z obu stron folii (jedna elektroda ma odwróconą fazę sygnału o 180 stopni w stosunku do drugiej), w ten sposób wywołując drgania folii w takt sygnału.

Magnetostrykcyjne - pole magnetyczne wywołuje zmianę wymiarów materiału ferromagnetycznego (zjawisko magnetostrykcyjne). Ze względu na duże częstotliwości drgań własnych elementów ferromagnetycznych, tego typu głośniki stosowane są do otrzymywania ultradźwięków.

Piezoelektryczne - pole elektryczne wywołuje zmianę wymiarów materiału piezoelektrycznego, stosowane w głośnikach wysokotonowych i ultradźwiękowych,

Jonowe (bezmembranowe).

Mikrofon



Mikrofon – przetwornik elektroakustyczny służący do przetwarzania fal dźwiękowych na impulsy elektryczne.

W tradycyjnych mikrofonach dynamicznych fale dźwiękowe powodują drgania cienkiej elastycznej membrany wraz z cewką, która jest do niej umocowana. Drgania cewki, która umieszczona jest między biegunami magnesu, wzbudzają w niej przemienny prąd elektryczny o częstotliwości odpowiadającej częstości drgań fal dźwiękowych.

W wyniku przetwarzania otrzymuje się z mikrofonu przebieg elektryczny – sygnał foniczny w postaci siły elektromotorycznej E, napięcia wyjściowego U oraz prądu I odpowiadającego przebiegowi akustycznemu.

Rodzaje mikrofonów
Ze względu na sposób przetwarzania drgań membrany na sygnał foniczny mikrofony dzielimy na:

stykowe (węglowe)
piezoelektryczne
dynamiczne (magnetoelektryczne)
wstęgowe
opornościowe
pojemnościowe (elektrostatyczne)
pojemnościowe elektretowe
laserowe

środa, 24 marca 2010

Lodówka

Lodówka - szafka, szafa o pojemności do kilkuset litrów, wewnątrz której utrzymywana jest temperatura obniżona w stosunku do otoczenia. Głównym elementem lodówki jest urządzenie chłodnicze (chłodziarka) zazwyczaj sprężarkowe lub absorpcyjne. Powszechnie używana od lat 30. XX wieku.

Lodówki domowe służą do przechowywania żywności i schładzania, np. napojów. Buduje się je często jako lodówkozamrażarki.

Pierwsza lodówka została skonstruowana w 1914 roku przez Florence Parpart. Prymitywne lodownie powstawały już przed naszą erą, jednak były to duże budowle, na które przeciętny człowiek nie mógł sobie pozwolić. Rozwiązanie bliższe lodówce stosowali Wikingowie. Wewnątrz domu, z dala od ogniska, kopano głęboki dół, na dnie którego umieszczano lód lub śnieg. Po zapełnieniu dołu żywnością, przysypywano go warstwą ziemi. Mięso zabezpieczone w ten sposób zachowywało świeżość przez wiele miesięcy po zakończeniu zimy.

Lodówka oznaczała niegdyś pomieszczenie gospodarcze, pojemnik lub szafkę izolowaną termicznie od otoczenia, umożliwiającą przechowywanie w obniżonej temperaturze łatwo psujących się produktów. Chłodzenie zapewniało umieszczenie we wnętrzu lodówki substancji o odpowiednio niskiej temperaturze i dużej pojemności cieplnej. Mogło to być ciało o dużej masie i cieple właściwym, jednak zazwyczaj wykorzystywano do tego celu ciepło przemiany fazowej (topnienia). Najczęściej używane czynniki chłodzące to lód (stąd nazwa — lodówka), mieszaniny oziębiające (np. lód z dodatkiem soli) oraz zestalony dwutlenek węgla - suchy lód.

Przenośne pojemniki o podobnej funkcji nazywamy termosami. Specjalne budowle służące do magazynowania i przechowywania lodu to lodownie. Tak samo nazywa się samochody izolowane, z wbudowanymi akumulatorami chłodu (w postaci płyt eutektycznych).

Lodówki tego typu wyszły z użycia wraz z popularyzacją chłodziarek, które nie muszą być zaopatrywane w lód.

Budowa

PAROWNIK: Jest sercem lodówki. W jego wnętrzu znajduje się ciecz chłodząca, która
parując pobiera ciepło z otoczenia. Parownik jest wykonany z czystego aluminium.
TACKA NA ŚCIEKAJĄCĄ WODĘ (używana podczas rozmrażania): Podczas
rozmrażania należy ustawić ją pod parownikiem, aby zbierała się w niej woda.
UKŁAD STERUJĄCY: Steruje pracą silnika oraz reguluje temperaturę wnętrza
lodówki.
PLASTIKOWA PÓŁKA: Jej szerokość jest równa szerokości wnętrza lodówki. Półkę
można wyjąć.
PÓŁKA: Można na niej przechowywać masło, jajka,
MAGNETYCZNE ZAMKNIĘCIE DRZWI: Dzięki niemu drzwi są zawsze szczelnie
domknięte, a jednocześnie otwieranie drzwi nie wymaga dużej siły
POJEMNIK NA KOSTKI LODU: Ułatwia przygotowywanie kostek lodu.
PÓLKA NA PUSZKI I SŁOIKI: Można na niej przechowywać puszki lub słoiki.
PÓŁKA NA BUTELKI: Można na niej ustawiać butelki, puszki lub słoiki.
POJEMNIK: Można w nim przechowywać owoce i warzywa.
POKRYWA POJEMNIKA

Zasada działania

LODÓWKA służy do przechowywania żywności w gospodarstwach domowych i sklepach. Lodówka posiada także komorę o temperaturze poniżej 0°C, czyli zamrażalnik lodówki. W lodówce chłodzenie odbywa się za pomocą chłodniczego urządzenia absorpcyjnego lub sprężarkowego. Ciecz zwana czynnikiem chłodniczym (płyn parujący przy niskiej temperaturze) pobiera ciepło z chłodzonego otoczenia przechodzi przez parownik (powyginana esowato rurka). Parownik jest najzimniejszą częścią lodówki, zwykle umieszcza się go w zamrażalniku.

Większość domowych lodówek to chłodziarki sprężarkowe. Chłodziarka sprężarkowa wyposażona jest w sprężarkę napędzaną silnikiem elektrycznym, który zmusza czynnik chłodzący do krążenia w obiegu. Sprężarka, zwykle tłokowa, przetłacza parę czynnika chłodniczego do skraplacza, w którym para skrapla się oddając ciepło, następnie czynnik paruje pobierając ciepło od chłodzonych produktów. Niepożądanemu podnoszeniu się temperatury w lodówce zapobiega zainstalowany w niej termostat, który włącza agregat, gdy temperatura podnosi się i wyłącza go, gdy za bardzo spada. Tym samym powoduje, że lodówka nie pracuje bez przerw, przez co zmniejsza się zużycie energii elektrycznej.

Lodówka, zamrażarka czy też chłodnia musi być wyizolowana termicznie. Ciepło z zewnątrz nie może się dostać do wnętrza lodówki, chłodni lub zamrażarki. Ciepło dostające się do środka lodówki, zamrazarki, chlodni powodowałoby włączenie przez termostat agregatu chłodniczego i pobieranie dużych ilości energii, aby agregat mógł pracować bez przerwy utrzymując odpowiednią temperaturę wewnątrz chłodnie, lodówki bądź też zamrażarki.

Pralka


Pralka – urządzenie mechaniczne służące do prania odzieży.

Pierwsza pralka została zbudowana przez J. Kinga w 1851 r. Jej działanie opierało się na wykorzystaniu pary, a zasada działania tej pralki znacznie odbiegała od naśladowania ręcznych czynności. Pralki napędzane elektrycznie zaczęto konstruować w 1899, kiedy został wynaleziony silnik elektryczny. Jedną z pierwszych była pralka z bębnem z emaliowanego drewna, która została zbudowana w 1907 roku przez Alvę Fishera.

Przez kilka następnych lat ta pralka była udoskonalana poprzez poziome lub pionowe ustawienie bębna, zmianę szybkości obrotów, itp. W Polsce przez wiele lat popularna była pralka Frania. Z czasem pralki półautomatyczne zostały wyparte przez automatyczne.

Pralka z 1934 roku sama utrzymywała stałą temperaturę wody, dozowała proszek i płukała. W 1937 roku w USA zbudowano pierwszą programowaną pralkę automatyczną – wykonującą takie czynności jak: pranie, płukanie, odwirowanie oraz czasowe zaprogramowanie czynności, ustawienia temperatury wody czy szybkości obrotów.

Budowa


Pralki są napędzane silnikiem elektrycznym a jedną z ich podstawowych części to bęben. Znajduje się on w specjalnym, szczelnym zbiorniku pralek, otwieranym od góry lub z boku. Bębny pralek wykonane ze stali nierdzewnej, posiadają dziurki służące do odpływu wody ze zbiornika.




W pralkach ładowanych od przodu, oś przytwierdzona do tylnej ścianki bębna przechodzi poprzez łożyska o dwóch różnych średnicach, umieszczonych na tylnej ściance zbiornika. Natomiast w typie pralek ładowanych od góry bęben może być umiejscowiony pionowo (bęben otwarty od góry) lub poziomo (łożyska są po obu stronach bębna, do którego pranie ładuje się przez boczną klapkę).

Kolejna istotna część pralek to oczywiście programator. To on odpowiada za cały proces kolejno wykonywanych przez pralki czynności. Dzięki zastosowaniu hydrostatu możliwa jest regulacja ilości pobieranej wody. Natomiast grzałka elektryczna podgrzewa wodę do ustawionej regulatorem temperatury. Grzałka swoje działanie opiera na wskazaniach czujników temperatury, które nie są powiązane z programatorem.

Takie rozwiązanie umożliwia różne ustawienia prania - długi cykl z niską temperaturą, krótki z wysoką itd. Współczesne pralki wirują z ogromną prędkością. Dlatego konieczne jest użycie tzw. przeciwwagi - czyli po prostu odpowiednio uformowanego żeliwnego kawałka. Przytwierdza się go do zbiornika w odpowiednim miejscu. To jest "główny" sprawca sporej wagi pralki.

Amortyzatory oraz sprężyny, na których zawieszony jest silnik zapobiegają przemieszczaniu się i wytłumiają drgania pralki w czasie pracy. Silnik w czasie pracy obraca się na zmianę pewną ilość razy w jedną stronę a po chwili w odwrotną. Ubrania są przez to przerzucane na różne strony, ocierają się o nierówną powierzchnię bębna, a woda z rozpuszczonym środkiem piorącym dociera do każdego brudnego fragmentu tkanin.

Pompa pompuje wodę na początku prania i odpompowuje na końcu. Brudna woda po praniu przechodzi przez filtr, na którym zostają różne większe kawałki włóknien i drobne przedmioty nie wyjęte z kieszeni. ;) W czasie prania drzwiczki są zablokowane zamkiem elektromagnetycznym, sterowanym przez regulator czasowy w programatorze. Takie zabezpieczenie uniemożliwia przypadkowe otwarcie drzwiczek w czasie prania.

Suszarka do włosów

Suszarka do włosów - urządzenie elektryczne, służące do suszenia włosów.
Najczęściej ma rozmiary pozwalające na trzymanie jej w ręce; większe suszarki, stojące, używane są głównie w zakładach fryzjerskich.

Pierwsza suszarka została opracowana przez polskiego inżyniera Michała Doliwo-Dobrowolskiego (głównego inżyniera zakładów AEG) w 1899 roku. Nosił nazwę Fön, (ciepły, górski wiatr). Ich produkcję rozpoczęto w zakładach AEG w Norymberdze. Pierwsze skutecznie działające suszarki do włosów powstały w roku 1920 (modele: "Race" i "Cyclone"). Wyprodukowała je firma Racine Universal Motor Company i fabryka w Hamilton Beach.

Ważyły ona prawie 2 kg i były skrzynkami ustawionymi na stole. Pierwsze modele przegrzewały się i paliły. Dlatego bez przerwy ulepszano pierwotną konstrukcję. W 1951 roku pojawiły się suszarki wyposażone w elastyczny wąż połączony z plastikowym kapturem.W suszarkach zastosowano silnik uniwersalny, silnik elektryczny szeregowy komutatorowy 1-fazowy dostosowany do zasilania zarówno prądem przemiennym, jak i prądem stałym; stosowanym m.in. w sprzęcie gospodarstwa domowego.

Mimo biegu czasu i licznych zmian technicznych, podstawowa budowa oraz funkcja elektrycznych suszarek do włosów nie uległa zasadniczej zmianie. Dopasowana do kształtu dłoni obudowa kryje w swoim wnętrzu silnik z wiatrakiem oraz spiralę grzewczą, przez którą przedmuchiwane
powietrze ulega ogrzaniu a odpowiednio wyprofilowana dysza kieruje je na włosy.

Tyle teoria a teraz praktyka, która niejednokrotnie bywa całkiem odmienna. Wiele dawnych suszarek wzbudza dzisiaj nasze uśmiechy i wyrazy współczucia dla pań korzystających z owych
udogodnień życia codziennego. Kilogram nagrzewającej się stali lub bakielitu, moc do 300 wat,
nawiew raczej symboliczny, oto "atuty" dawnych suszarek z dzisiejszego punktu widzenia.

Mimo to, mają one jedną wielką zaletę a mianowicie; niezawodność.
Współczesne suszarki bardzo rzadko wytrzymują dłużej niż kilka lat. Ich niska cena i ogólna
dostępność w sklepach sprawia, że nie naprawia się ich, tylko wyrzuca zastępując nowymi modelami.


Krajowym pionierem suszarek do włosów była firma Zelmer, która już na początku swojej działalności w latach 50-tych, produkowała profesjonalne suszarki fryzjerskie typu hełmowego.

środa, 17 marca 2010

Silnik czterosuwowy


Silnik czterosuwowysilnik spalinowy o spalaniu wewnętrznym wykorzystywany w samochodach, ciężarówkach, motocyklach oraz wielu innych maszynach. Nazwa odnosi się do czterech faz, które zachodzą podczas działania: wpływu powietrza lub mieszanki paliwowej, sprężenia, pracy i wydmuchu spalin. Cykl obejmuje dwa okrążenia wału korbowego na cykl pracy, inaczej mówiąc, silnik czterosuwowy to silnik, którego tłok wykonuje cztery ruchy posuwiste w jednym cyklu roboczym.



Budowa

Silnik czterosuwowy składa się z następujących głównych części: kadłuba, głowicy, mechanizmu korbowego oraz rozrządu i koła zamachowego.

Kadłub, to obudowa silnika. W nim poruszają się tłoki i wał korbowy. Od góry przykrywa go głowica, która zawiera zawory i pozostałe części mechanizmu rozrządu. Kadłub również zawiera w swej budowie elementy, które pozwalają przymocować sam silnik do napędzanego mechanizmu, jak również do niego zostają przytwierdzone elementy osprzętu potrzebne do funkcjonowania silnika.

W skład kadłuba i głowicy wchodzą również takie elementy, jak kanały dolotowe mieszanki paliwowo-powietrznej, wylotowe spalin, kanały układu chłodzenia i smarowania. Kanały dolotowe, którymi przemieszcza się mieszanka muszą być odpowiedniej średnicy, aby mogła ona w sposób swobodny przejść do komory spalania silnika.

Kanały wylotowe również musza mieć odpowiednią średnicę, aby sprawnie odprowadzać spaliny. Ich temperatura może osiągać poziom 800ºC a ich ciśnienie około 20 atmosfer, a liniowa prędkość uchodzenia jest bliska prędkości dźwięku, czyli około 1200 km/h.

Mechanizm korbowy jest kolejną zasadniczą częścią silnika. W jego skład wchodzą wał korbowy, korbowód, tłok oraz koło zamachowe. Mechanizm korbowy przekształca liniowy ruch tłoka na obrotowy ruch wału korbowego.

Zasada działania
DMP – określenie stosowane w technice, oznaczające "Dolne Martwe Położenie" tłoka, czyli skrajne dolne położenie tłoka w cylindrze odpowiadające największej objętości przestrzeni roboczej.


GMP - Określenie stosowane w technice, oznaczające "Górne Martwe Położenie" tłoka, czyli skrajne górne położenie tłoka w cylindrze odpowiadające najmniejszej objętości przestrzeni roboczej. Można spotkać także określenie ZMP, oznaczające "Zewnętrzne Martwe Położenie" jest ono jednoznaczne dla każdego położenia cylindra ale w społeczności mechaników silnikowców nie używane często.


Suw ssania

Tłok przesuwa się w dół z górnego (GMP) do dolnego martwego punktu (DMP), wytwarzając we wnętrzu cylindra podciśnienie. W tym czasie zawór ssawny jest otwarty, dzięki temu z kanału dolotowego, znajdującego się za zamykającym go zaworem ssącym, wciągnięta zostaje z układu dolotowego silnika (gaźnik,wtrysk jedno- lub wielopunktowy), zostaje zassana mieszanka paliwowo-powietrzna (lub w przypadku wtrysku bezpośredniego zostaje zassane samo świeże powietrze, np. silniki typu FSI lub Diesla). Trafia ona do wnętrza cylindra, pomiędzy tłok, a głowicę cylindra. Kiedy tylko tłok przekroczy DMP, zawór ssący zostaje zamknięty.

Suw sprężania

Tłok przemieszcza się w górę cylindra, ściskając (czyli sprężając) mieszankę paliwowo-powietrzną. Oba zawory (ssawny i wydechowy) są zamknięte. Sprężanie następuje pod znacznym ciśnieniem, do (zwykle) mniej więcej jednej dziesiątej początkowej objętości mieszanki. Ale zanim osiągnie minimalną objętość ( na 1-2 milimetry – lub inaczej na ok. 5 stopni obrotu wału korbowego zanim tłok osiągnie GMP) następuje zapłon. Celem jest doprowadzenie do spalenia całej mieszanki w chwili, gdy tłok przekroczył GMP i może zostać odepchnięty przez rozprężające się gazy spalinowe rozpoczynające suw pracy.

Suw rozprężania (pracy)

Przed osiągnięciem GMP w silnikach wysokoprężnych i tych z elektronicznym, bezpośrednim wtryskiem paliwa lekkiego (np. FSI koncernu VW lub GDI Mitsubishi) następuje wtrysk paliwa i zapłon samoczynny lub wymuszony iskrą. Oba zawory (ssawny i wydechowy) są zamknięte. Tłok zostaje odepchnięty z dużą siłą, gdyż we wnętrzu komory spalania po zapłonie powstaje ciśnienie o wartości do 100 barów (co czasem odpowiada sile nacisku na tłok równej 5 tonom). Takie siły muszą być przeniesione z denka tłoka przez korbowód na wał korbowy. Wymusza to ruch tłoka do DMP. Z tego jednego suwu pracy silnik musi uzyskać wystarczającą energię by zrealizować pozostałe trzy suwy. Dlatego też silniki pracują tym równiej im więcej mają cylindrów.

Suw wydechu

Jeszcze zanim tłok osiągnie DMP, otwarty zostaje zawór wydechowy i wciąż jeszcze nie do końca rozprężone gazy spalinowe mogą opuścić cylinder przez układ wydechowy. Przemieszczający się w górę tłok aż do osiągnięcia GMP, gdy zawór wydechowy jest otwarty wypycha z cylindra resztę gazów, a po osiągnięciu GMP następuje tzw. "wahnięcie", czyli zamknięcie zaworu wydechowego a otwarcie zaworu ssącego i cykl rozpoczyna się od początku.























made by Robson Studio 2010

Silnik dwusuwowy

Silnik dwusuwowy jest to silnik spalinowy, w którym cztery fazy pracy (ssanie, sprężanie, praca i wydech) wykonywane są w ciągu dwóch suwów (od górnego do dolnego skrajnego położenia) tłoka.

Istnieją konstrukcje silników dwusuwowych zarówno o zapłonie iskrowym, jak i o zapłonie samoczynnym.


Budowa i zasada działania


W silniku dwusuwowym cykl pracy przebiega podczas dwóch suwów tłoka, tzn. podczas jednego obrotu wału korbowego. Silniki dwusuwowe wykonują tylko suw sprężenia i suw pracy.

Czynności związane z wymianą ładunku, tj. napełnienie cylindra i wylot spalin, odbywają się tu prawie jednocześnie, kiedy tłok znajduje się w okolicy DMP, a więc pod koniec suwu pracy i na początku suwu sprężenia. Silniki dwusuwowe zazwyczaj nie mają zaworów.

Wylot i dolot spalin reguluje w nich sam tłok, odsłaniając lub zasłaniając odpowiednie otwory w ściankach cylindra. Ponieważ w silniku dwusuwowym nie ma suwu dolotu świeży ładunek przeznaczony do napełnienia cylindra musi być uprzednio sprężony poza cylindrem roboczym. To wstępne sprężanie odbywa się w specjalnie przystosowanej do tego celu dmuchawie lub sprężarce, albo w komorze korbowej silnika.


Zaletą silników dwusuwowych jest znacznie prostsza konstrukcja, duża równomierność biegu i teoretycznie dwa razy większa moc w porównaniu z silnikami czterosuwowymi o tych samych wymiarach cylindra, prędkości obrotowej i ciśnieniu w cylindrze.


W rzeczywistości jednak zysk na mocy wynosi zaledwie 50-70% z powodu zmniejszenia objętości skokowej cylindra przez szczeliny oraz wskutek niemożności zupełnego przepłukania cylindra i usunięcia z niego spalin.


Sprawność silników dwusuwowych jest znacznie mniejsza niż czterosuwowych, gdyż duża ilość nie spalonej mieszanki uchodzi przez szczelinę wylotową podczas przepłukiwania cylindra. W większych silnikach dwusuwowych zamiast sprężania w komorze korbowej stosuje się osobną dmuchawę tłokową lub wirową napędzaną przez wał korbowy silnika.


Suw sprężania

Podczas tego suwu następuje wzrost ciśnienia ładunku zgromadzonego w cylindrze. Proces ten odbywa się w warunkach ciągłej wymiany ciepła między ładunkiem a ściankami cylindra, głowicą i denkiem tłoka.

Ta wymiana ciepła odbywa się ze zmienna intensywnością, a nawet ze zmiennym kierunkiem przepływu ciepła. Na początku suwu ładunek pobiera ciepło od denka tłoka i ścianek cylindra, przy końcu zaś następuje oddawanie ciepła przez ładunek do ścianek przestrzeni roboczej. Na początku suwu sprężania trwa jeszcze proces przepłukiwania cylindra, czyli wymiany ładunku.

Suw rozprężenia (praca)

Proces rozprężenia rozpoczyna się po ukończeniu spalania mieszanki. Wysokie ciśnienie znajdujących się w cylindrze silnika gazów spalinowych sprawia, że wywierają one tłok znaczną siłę, pod wpływem, której tłok przesuwa się ku DMP.

Rozprężające się spaliny wykonują pracę. Stąd suw rozprężenia nazywa się suwem pracy. Podobnie jak podczas sprężania tak i tu występuje ciągła wymiana ciepła między gazami a czynnikiem chłodzącym za pośrednictwem ścianek cylindra i głowicy. Pod koniec suwu rozpoczyna się proces przepłukiwania.


W tym systemie okna (szczeliny) dolotowe i wylotowe umieszczone są po przeciwległych stronach cylindra. W celu zapobieżenia ucieczce świeżego ładunku dopływającego do cylindra jego strumień skierowuję się ku górze przez zastosowanie nasady sterującej na tłoku lub pochylenie kanału dolotowego.

Rozwiązanie z nasadą sterującą na tłoku ma wiele wad. Skomplikowany kształt denka tłoka i komory spalania w głowicy utrudnia obróbkę tych elementów i zwiększa ich koszty. Niesymetryczny kształt sprzyja powstaniu odkształceń cieplnych i pękaniu tłoka.

Korzystniejszym rozwiązaniem jest pochylenie kanału dolotowego. Należy jednak pamiętać, że pochylenie kanału dolotowego powoduje wzrost wysokości okien, a tym samym zmniejszenie czynnego skoku tłoka




Made by Robson Studio 2010

wtorek, 16 marca 2010

Zapaść gier wideo w 1983

Zapaść gier wideo w 1983 była nagłym krachem biznesu gier wideo, co spowodowało bankructwo wielu firm produkujących komputery domowe i konsole gier wideo w Ameryce Północnej pod koniec 1983 i na początku 1984. Doprowadziła ona do zakończenia drugiej generacji gier wideo.

Spowodowana tą zapaścią trzyletnia luka stopniowo zapełniała się nowymi produkcjami, ale brakowało znaczących osiągnięć w tej dziedzinie. Okres ten został zakończony wraz z sukcesem konsoli Nintendo Entertainment System (NES), która została wydana w Japonii w 1983 (jako Famicom), a później także w Stanach Zjednoczonych w 1985. Do roku 1987 zyskała ona sobie dużą popularność w obu tych krajach.

Czasem okres ten nazywany jest "zapaścią gier wideo w 1984", ponieważ to właśnie w 1984 efekty krachu stały się oczywiste dla konsumentów. Setki gier tworzonych z myślą o ich wydaniu w 1983 nie zostały w ogóle wyprodukowane. W roku 1983 ograniczono produkcję gier, bo plany zakładały zwiększenie ich sprzedaży rok później. W rezultacie liczba nowych gier wydanych w tamtym czasie nie była zbyt duża.

Przyczyny zapaści

Zapaść gier wideo w 1983 była spowodowana głównie następującymi czynnikami:

Bardzo agresywny marketing tanich komputerów domowych, głównie Commodore 64, wykorzystujący hasła reklamowe typu: "Dlaczego kupować dziecku konsolę, która odciągnie je od nauki, skoro możesz kupić komputer, który przygotuje je do college'u?".

Z przeprowadzonych badań rynku wynikało, że miliony konsumentów zmieniło swoje preferencje kupując teraz więcej komputerów w podobnej cenie, co konsole.

Wylew tytułów bardzo niskiej jakości połączony z wydaniem na Atari 2600 niskiej jakości gier nawiązujących do filmowego hitu E.T. i niezbyt udanej konwersji gry arcade Pac-Man.

Programy informacyjne dotyczące problemów lat 1982-83, m.in. historia Atari, które zakopało tysiące kartridżów z grą E.T. w Nowym Meksyku.

Powzięcie decyzji przez czołowych producentów zabawek, że gry wideo są tylko krótkotrwałym hobby (Cabbage Patch Kids i Beanie Babies), a półki sklepowe mogą zostać zapełnione produktami o wyższej jakości.

Wpływ komputerów domowych

Do czasu lat 80. komputery osobiste były sprzedawane w specjalistycznych sklepach komputerowych za cenę ponad 1 000 dolarów (czyli około 3 000 dolarów dzisiaj). Na początku lat 80. zaprezentowano niedrogie komputery podłączane do telewizora, które oferowały kolorową grafikę i dźwięk. Pierwszymi takimi komputerami były Atari 400 i 800, lecz rywalizowało ze sobą znacznie więcej modeli. Dziennikarz David H. Ahl w 1984 powiedział:

Wiosną 1982 cena TI 99/4A i Atari 400 wynosiła 349 dolarów, Radio Shack Color Computer 379 dolarów, a Commodore opuścił cenę VIC-20 do 199 dolarów, a C64 do 499 dolarów.

Ponieważ te i inne komputery zazwyczaj miały większą dostępną pojemność danych i lepsze możliwości audio-wizualne niż konsole, tworzono na nie bardziej złożone gry. Komputery jednak nie musiały być wykorzystywane jedynie do gier i można było na nich wykonywać między innymi tworzenie tekstu czy prowadzenie rachunku domowego.

Same gry natomiast było łatwiej kopiować, ponieważ były wydawane na dyskietkach lub kasetach, a nie, jak w przypadku konsol, na modułach ROM.

Commodore w swoich reklamach wyraźnie działał na szkodę producentów konsol, pokazując, jakie korzyści przybędą dzięki zakupowi Commodore 64 zamiast konsoli gier wideo. Badania firm Atari i Mattel potwierdziły, że te reklamy spowodowały zmniejszenie sprzedaży i znaczenia ich konsol.

W przeciwieństwie do innych firm Commodore sprzedawało również komputery w tych samych sklepach co producenci konsol swoje produkty. Przewaga firmy Commodore spowodowana była tym, że w odróżnieniu od Texas Instruments, Coleco czy Atari, to oddział Commodore'a, MOS Technology, Inc., produkował większość chipów (jeden z najpopularniejszych to procesor 6502) używanych w komputerach Atari i w konsolach. Podobna sytuacja miała miejsce na rynku kalkulatorów na początku lat 70. Firmy kupowały chipy od Texas Instruments i jednocześnie rywalizowały z jego kalkulatorami.

Wylew produktów

Jeżeli dany tytuł się nie sprzedaje, jest zwrócony do wydawcy, a sklep dostaje inny tytuł w zamian. Proces się powtarza do czasu, gdy dobra zostaną sprzedane. Ten model biznesowy — istniejący do dziś — stał się podstawą zapaści w 1983.

Początki zbliżającej się zapaści zaczęły się bardzo dobrze. Firmę Activision założyli czterej byli projektanci gier Atari, którzy odeszli z niej w 1979, ponieważ Atari nie chciało, aby napisy końcowe pojawiały się w grze oraz nie płaciło pracownikom honorarium zależnego od sprzedanych kopii gier.

W tym czasie Atari było własnością Warner Communications. Producenci poczuli, że mogą zdobyć taką samą popularność jak muzycy, reżyserowie czy aktorzy z innych oddziałów Warnera.

Atari szybko wytoczyło sprawę firmie Activision w celu zablokowania sprzedaży ich produktów, lecz nigdy nie wygrało sprawy, która została rozporządzona na korzyść Atari w 1982.

Ta sprawa zatwierdziła tworzenie gier przez producentów niezwiązanych z firmą produkującą konsole i spowodowała powstanie nieprzygotowanych oddziałów firm, takich jak Quaker Oats, licząc na zaimponowanie klientom i akcjonariuszom na Wall Street.

Firmy kusiły programistów innych firm lub używały reverse engineering do nauki, jak tworzyć gry na dany system. Atari zatrudniło programistów firmy Intellivision, co spowodowało wytoczenie sprawy Mattel kontra Atari, przeciwko któremu pozew dotyczył między innymi szpiegostwa.

W przeciwieństwie do firm Microsoft, Nintendo czy Sony w następnych dekadach, producenci konsol stracili możliwość kontrolowania wydawania gier na swoją platformę. Razem z tym utracili możliwość upewnienia się, że sklepy z zabawkami nie będą przepełnione.

Większość nowych firm nie miało utalentowanych projektantów do tworzenia gier, więc tytuły, takie jak Chase the Chuck Wagon, Skeet Shoot czy Lost Luggage, były grami tworzonymi w nadziei na zyski ze sprzedaży podczas bziku na gry wideo. Pomimo że głośno reklamowane, większość tych tytułów była bardzo słaba.

Zakładanie firm też przyczyniło się do zapaści. Na przykład gdy Atari wydało szeroko rozreklamowaną grę E.T., wyprodukowane miliony kopii gry miały przynieść ogromne zyski. Gra wydana została jednak już po sześciu tygodniach prac.

Słaba jakość gry szybko okazała się prawdą, co podchwyciły również media i nazwały grę E.T. pierwszą wielką pomyłką w przemyśle gier komputerowych. Dodać należy, że wyprodukowano więcej cartridge'y niż było konsol Atari na świecie.

Utrata zaufania sprzedawców

W 1982 miał miejsce wylew wielu gier poniżej standardów. W firmie Mattel, jeden z dyrektorów sprzedaży Intellivision opisał problem mówiąc: "Produkty na dwa lata zostały wepchnięte w jeden rok i nie ma szansy na zrównoważenie systemu".

Gdy sklepy zaczęły zwracać produkty do nowych wydawców, ci nie mieli ani nowych gier ani pieniędzy na zrefundowanie wkładu sprzedawców. Wielu wydawców, włączając Games by Apollo, US Games czy Quaker Oats, szybko znikło z rynku.

Ponieważ sprzedawcy nie mieli komu zwrócić niesprzedanych gier po Gwiazdce 1982 ich ceny zostały znacząco obniżone. Podczas gdy zwykła gra w 1982 kosztowała 34,95 dolarów - około 71 dolarów z 2005 - w przecenie były dostępne za cenę 4,95 dolarów. W czerwcu 1983 rynek gier za 34,95 dolarów przekształcił się w rynek niskobudżetowych gier.

Konsumenci w sklepach zatrzymywali się jedynie przy grach z obniżonymi cenami. Niepoinformowany klient widział jedynie tanie gry i trudno było dostać gry dobrej jakości. Po jakimś czasie konsumenci mieli dość gier poniżej standardów i zamiast kupować gry wysokobudżetowe odchodzili od gier.

Dodatkowo sprzedawcy, którzy kontrolowali dostęp konsumentów do gier, stwierdzili, że gry były jedynie przelotną modą i teraz dobrze byłoby wypełnić półki innymi produktami.

Producenci konsol, Mattel, Magnavox i Coleco opuściły przemysł gier komputerowych. Imagic odwołało swoje IPO dzień przed wydaniem i później upadło. Podczas gdy najwięksi producenci gier, jak Activision, przetrwali, wiele firm wspierających Atari 2600 zostało zamkniętych.

Niektórzy entuzjaści uważają rok 1983 za okres największej popularności gier arcade. Był to jednak rok wydania bardzo udanej gry Dragon's Lair, pierwszej gry korzystającej z dysku optycznego jako nośnika danych oraz wprowadzającej technikę full motion video. Gry arcade również były odbierane na zasadzie "gry wideo już minęły" i ich sprzedaż spadła drastycznie.

Wojna cenowa

Równocześnie z upadkiem gier wideo miała miejsce wojna cenowa komputerów domowych, która okazała się fatalna dla niektórych konkurentów. David Ahl powiedział:

W styczniu 1983, [Jack Tramiel, dyrektor Commodore] obniżył cenę Vic do 139 dolarów i C64 do 400 dolarów. TI [Texas Instruments] zareagowało miesiąc później obniżając cenę 99/4A do 149 dolarów.

Tramiel odpowiedział obniżką ceny Vic poniżej 100 dolarów, zmuszając TI do dalszej obniżki ceny 99/4A do 100 dolarów w czerwcu. 10 czerwca 1983 TI ogłosiło największą stratę w całej historii firmy, a trzy miesiące później wycofało się z rynku komputerów domowych. Tramiel, szukając dalszych zysków, obniżył cenę C64 do 200 dolarów.

Poza Texas Instruments wojna uderzyła w Coleco Adam, linię Timex-Sinclair i wielu pomniejszych konkurentów. Atari było bliskie bankructwa i w 1984 zostało sprzedane przez Warner Communications (teraz części Time Warner). Tym, kto kupił Atari, był Jack Tramiel.

Długoletni wpływ na przemysł gier

Zapaść spowodowała dwa długoterminowe efekty. Pierwszy to przemieszczenie dominacji konsol gier wideo ze Stanów Zjednoczonych do Japonii. Gdy rynek gier wideo powrócił w 1987, głównym systemem była konsola Nintendo Entertainment System i wskrzeszone Atari walczące z Segą (założoną przez Amerykanina Martina Bromely'a) o drugie miejsce. Ze względu na porażkę konsoli Jaguar firma Atari przestała produkować systemy gier w 1996 roku.

Drugim widocznym efektem zapaści było stworzenie oddziałów do kontrolowania tworzonych gier. Nintendo - i wszyscy następni producenci konsol - kontrolowali dystrybucję gier poprzez ograniczenia licencyjne i implementację systemów zabezpieczeń w konsolach. Wydawcy bez porozumienia z producentem nie byli w stanie sprzedać gry, ponieważ kartridż musiał zawierać chip z poprawnym kluczem uruchamiającym.

Jeżeli w kartridżu nie było chipu lub był z błędnym kluczem gra się nie uruchamiała. Pomimo że Accolade wygrało jeden proces z Segą dotyczący tego typu zabezpieczeń, ostatecznie i tak podpisało umowę licencyjną z firmą Sega. Różni wydawcy - między innymi Tengen (Atari), Color Dreams i Camerica - walczyły z systemem kontroli Nintendo w czasie ery 8-bitowców. Koncepcje takiej kontroli dalej są używane przez czołowych producentów konsol gier wideo.

Nintendo rezerwowało sobie zyski ze sprzedaży gier na NES limitując większość producentów do pięciu gier na rok. Wymagał również, aby wszystkie kartridże były produkowane przez Nintendo i zapłaty za tworzenie.

Kartridże nie mogły wrócić do Nintendo, więc to wydawcy ryzykowali. Nintendo opisywało te ograniczenia jako ochronę przed słabymi grami i wprowadziła oznaczenie Nintendo Seal of Quality na wszystkich grach wydanych na konsolę.

Mimo że większość pomysłów kontroli gier Nintendo zostało później adoptowanych przez producentów konsol (między innymi Sega, Sony i Microsoft), żaden z nich nie wykorzystywał takich ograniczeń do utrzymywania rynku dla siebie.

Producenci konsol w 2005 zwykle otrzymywali 9 dolarów za każdą licencjonowaną sprzedaną kopię gry przez autoryzowanych wydawców. Pozwoliło to producentom konsol na zarobienie na sukcesie wydawców i kontrolowanie słabych, pornograficznych lub w inny sposób kontrowersyjnych gier, jak na przykład Custer's Revenge, które mogłyby zniszczyć reputację konsoli.

Pomniejszym efektem zapaści, który trwał od lat 80. do czasu nowej generacji konsol to zwiększona tendencja produkcji i wydawania gier na komputery. Na przykład Electronic Arts założone w 1982 wydając pierwszą grę w 1983 uniknęło zapaści, ponieważ biznesplan firmy przewidywał jedynie wydawanie gier na komputery.












Made by Rbson studio 2010

sobota, 13 marca 2010

Historia gier komputerowych (3 generacja)

W historii gier komputerowych, era 8-bitowców była trzecią generacją konsol gier wideo i pierwszą po zapaści gier wideo w 1983. Przez niektórych era ta uznawana jest za pierwszą "współczesną" erę gier konsolowych. Pomimo że konsole poprzednich generacji również korzystały z 8-bitowych procesorów, dopiero w tej generacji konsole zostały oznaczone według "ilości bitów".

Takie oznaczenie stało się powszechne, gdy rozpoczęto marketing systemów 16-bitowych, takich jak Mega Drive/Genesis, co podkreślało różnice pomiędzy poszczególnymi generacjami konsol. Takie oznaczenie przetrwało do szóstej generacji.

Podczas tej ery największą sławą w Japonii cieszył się Famicom (skrót od komputer rodzinny - family computer). NEC PC Engine również zdobył popularność, dorabiając się dużej ilości sprzętu.

Amerykański odpowiednik Famicoma, Nintendo Entertainment System, zdominował rynek gier w północnej Ameryce. Pomimo tego na rynku dobrze trzymały się również Sega Master System (popularny głównie w Brazylii i Europie) oraz Atari 7800. Ta generacja często jest mylnie opisywana jako "Pierwsza generacja".

Systemy w erze 8-bitowców ( kolejność Atari 7800, Atari XE Game System, Nintendo Entertainment System, Sega Master System )








Made by Robson Studio 2010

czwartek, 11 marca 2010

Historia gier komputerowych (4 generacja)

W historii gier komputerowych, era 16-bitowców była czwartą generacją konsol gier wideo. Era ta zdominowana była przez konsole Super Nintendo Entertainment System i Sega Mega Drive (nazywaną też Sega Genesis), które rywalizując ze sobą spowodowały, że ten okres uznaje się za jeden z największych pod względem konkurencyjności okresów w północnoamerykańskiej historii gier komputerowych. Konsola TurboGrafx-16 również należała do tej ery. Zdobyła ona popularność nie w Ameryce Północnej lecz w Japonii.

Konsole tej generacji (kolejność TurboGrafx 16,Sega Mega Drive Sega Genesis, Super Nintendo Entertainment System)


























Początki

Sega i NEC jednocześnie wydały konsole Genesis i TurboGrafx 16 tuż przed świętami Bożego Narodzenia. Obydwa systemy zdobyły popularność, mimo że Nintendo miało około 90% udziałów w przemyśle dzięki Nintendo Entertainment System, pokazując tym samym, że rynek był przygotowany na nowe technologie. Bardziej zaawansowana technologicznie Genesis szybko wyprzedziła TG-16 w ilości sprzedanych sztuk i otrzymała największą popularność w roku 1990.

W tym samym roku Namco wydało Kyuukai Douchuuki, World Stadium '90, Final Lap 2, Pistol Daimyo no Bouken, Souko Ban Deluxe, Dragon Saber, Steel Gunner, Rolling Thunder 2, Golly! Ghost! i stworzyła nie wydany później prototyp gry Puzzle Club. W 1991 Sega wydałaSonic the Hedgehog w odpowiedzi na zbliżające się wydanie przez Nintendo nowej konsoli Super Nintendo Entertainment System.

Reklamy Segi podczas wakacji 1991 zwiększyły sprzedaż gry z ich nową maskotką. W tym samym roku Nintendo wydaje 16-bitową konsolę Super NES w celu rozpoczęcia rywalizacji z Genesis. Razem z konsolą sprzedawana była gra Super Mario World, nowa gra z serii Mario. Rok 1991 uznaje się za rozpoczęcie wojny 16-bitowców.

Wojny konsolowe: Sega kontra Nintendo

Sega i Nintendo mocno się przepychały, aby uzyskać dochody na rynku. Maskotka Segi Sonic the Hedgehog był reklamowany jako "lepsza" alternatywa dla Mario firmy Nintendo. Sega stworzyła termin marketingowy "Blast Processing", który miał pokazywać zaawansowanie technologiczne konsoli Genesis. Reklamy Segi były w tym czasie bardzo kontrowersyjne. Firma korzystała ze sloganów typu "Genesis does what Nintendon't" (ang. Genesis robi to, co Nintendo nie).

Nintendo w odwecie rozpoczęła reklamę serii gier Mario, The Legend of Zelda, Star Fox, Super Metroid, a później też Donkey Kong Country i wiele innych gier na konsole Super NES i Game Boy. Sega wydała Sonic the Hedgehog 2 w 1992 (w Wielkiej Brytanii i USA gra wydana została we "wtorek Sonica"), która stała się bardziej popularna niż część pierwsza. Krótko potem Nintendo wydało rozszerzone remaki oryginalnych gier Super Mario z konsoli NES na Super NES nazwane Super Mario All-Stars.

NEC reklamował swoją konsolę TurboGrafx 16 za pomocą maskotki Bonk. Ten jaskiniowiec z dużą głową występował w praktycznie wszystkich reklamach TurboGrafx od 1990 do 1994. Platforma została ciepło przyjęta w USA. Wersja japońska TurboGrafx, PC Engine, również została dobrze przyjęta w Japonii, głównie dzięki różnorodności tytułów dostępnych na nowym wtedy nośniku, jakim były płyty CD-ROM. NEC wydał dodatek CD w 1990, a w 1992 wydał kombinację TurboGrafx i napędu CD-ROM znaną jako TurboDuo.

Gdy wydana została gra Mortal Kombat i pojawiły się związane z nią kontrowersje, Nintendo zdecydowało się ocenzurować przemoc w grze ze względu na długo istniejącą zasadę cenzury. Sega nastomiast powstrzymała się od tego ruchu, co spowodowało umocnienie pozycji konsoli. Wersja Mortal Kombat dostępna na konsolę Segi była oceniania przez czasopisma wyżej. W rezultacie Nintendo przemyślało swoją decyzję i gdy wydana została następna część serii, Mortal Kombat II, nie została ona ocenzurowana.

Wielu (głównie młodszych) graczy nazywało siebie fanami Nintendo lub fanami Segi i wszyscy byli przeciwni drugiemu systemowi. Nawet czasopisma rywalizowały ze sobą w ten sposób wytykając przeciwnemu systemowi najdrobniejsze potknięcia.

W 1994 zaprzestano produkcji w Ameryce TurboGrafx 16 i jego kombinacji CD, Turbo Duo, z powodu małej ilości produktów. NEC wydała 32-bitową konsolę PC-FX w tym samym roku w Japonii. Istniały plany wydania konsoli w Stanach Zjednoczonych, lecz tam pojawiły się już wydajniejsze systemy 3DO i Atari Jaguar co spowodowało wycofanie się firmy NEC z tego pomysłu.

Dodatki

Nintendo, NEC i Sega rywalizowały ze sobą na polu dodatków do konsol. Firma NEC pierwsza wydała taki dodatek, którym był Turbo-Grafx CD z 1990. Cena 499,99 dolarów w czasie wydania była uznawana za trochę za wysoką. Mówi się jednak, że spowodowane to było sukcesem platformy w Japonii.

Sega stworzyła dwa dodatki: Sega Mega-CD (jako Sega CD w USA) i Sega 32X, lecz żaden z nich nie zdobył popularności. Sega CD przez wysoką cenę przy wydaniu (300 dolarów) i ograniczoną ilość gier, a 32X miał problemy techniczne i komercyjne (okazało się, że 32X nie działał z niektórymi modelami konsoli, a niektórzy sprzedawcy nie mogli nadążyć nad sprzedażą konsoli powodując niedobór konsol).

Nintendo również stworzyło dwa dodatki: Satellaview i Super Game Boy. Pierwszy to serwis satelitarny wydany jedynie na japońskim rynku, a drugi to "przejściówka" pozwalająca na uruchomienie gier z konsoli Game Boy na Super NES w kolorze.

Interesujące jest fakt, że Nintendo pracowało wraz z firmą Sony nad własnym dodatkiem napędu CD-ROM dla konsoli Super NES podobnego do Sega CD, lecz firma zdecydowała, że nie będzie projektu kontynuować, opowiadając się za firmą Philips, która stworzyła niezbyt popularny system CD-i.

Projekt napędu CD-ROM dla Super NES został anulowany przez Nintendo, lecz Sony wykorzystało go i po przeróbkach pod przewodnictwem Kena Kutaragiego (twórca chipu dźwiękowego dla SNES-a) wydała jako "Sony PlayStation". PlayStation drastycznie obniżyło sprzedaż CD-i zmuszając firmę Philips do wycofania produktu w 1998.

Import gier do Europy

Era 16-bitowców była również erą kupowania w Europie importowanych przez sklepy ze Stanów Zjednoczonych gier. Najczęściej sprowadzanymi grami były gry na konsolę SNES.

Ponieważ system PAL wykorzystywał szybkość odświeżania 50 Hz (w porównaniu do 60 Hz systemu NTSC) i rozdzielczość pionową 625 przeplatanych linii (576 wykorzystywanych), w porównaniu do 525/480 dla NTSC, gry stworzone pod system NTSC bez żadnych modyfikacji działały 17% wolniej i miały widoczne czarne pasy na górze i dole ekranu. Duże firmy, jak Konami optymalizowały gry pod system europejski. Mniejsi producenci tak nie robili

W Europie było wydawanych mało gier fabularnych ze względu na potrzebę tłumaczenia ich na różne języki. Ilość tekstu w grach RPG powodowała, że największym problemem było umieszczenie całego tłumaczenia na jednym kartridżu. Koszt wielu tłumaczeń byłby zbyt duży. Tylko w Wielkiej Brytanii były dostępne gry RPG, lecz nawet tam był to ułamek tego, co wydawane było w Stanach Zjednoczonych lub Japonii.

W tej erze popularne były tak zwane modchipy, które instalowane były w konsolach. Te chipy to akcesoria które omijały wbudowane mechanizmy sprzętowe. Jednak z powodu chipów Super FX i różnic w wykorzystywanych technikach ochronnych, europejscy gracze często musieli dokupować nowe konwertery co jakiś czas lub "modyfikować" (na przykład poprzez instalację modchipu) swoje konsole, aby móc poprawnie uruchomić importowane gry.

Niektórymi z popularnych importowanych ze Stanów Zjednoczonych gier były:

Final Fantasy IV
Final Fantasy VI
Secret of Mana
Street Fighter II
Chrono Trigger
Super Mario RPG: Legend of the Seven Stars

Pod koniec ery

Wraz z rokiem 1995 era 16-bitowców kończy się, ponieważ nowe systemy są produkowane (Nintendo i Sega) lub zostały już wydane (Sony i Philips). Te systemy nazwane były przez czasopisma o grach "superkonsolami" dzięki ich wtedy innowacyjnej trójwymiarowej grafice. Rok 1996 był ostatnim rokiem popularności 16-bitowców i ostatnim, w którym ich udział na rynku przekraczał 50 procent.










Made by Robson Studio 2010

wtorek, 9 marca 2010

Historia gier komputerowych (5 generacja)

W historii gier komputerowych era 32- i 64-bitowców była piątą generacją konsol gier wideo. Generacja piąta została nazwana w historii gier wideo erą 3D tak jak 7 generacja erą HD. W tej erze dostępne były zarówno 32-bitowe jak i 64-bitowe konsole, a rynek zdominowały konsole Sony PlayStation (1995), Sega Saturn (1994) i Nintendo 64 (1996), z których PlayStation skończyło najpomyślniej.

To właśnie te systemy toczyły wojnę konsol w tej erze (zobacz rozdział poniżej). 3DO i Atari Jaguar były również częścią tej ery, lecz ich słaby marketing okazał się mieć ogromny wpływ na ich popularność. W tej erze pojawiły się także dwie ulepszone wersje konsoli Game Boy: Game Boy Color i Game Boy Light (tylko w Japonii).

Liczba bitów w tej erze była swego rodzaju reklamowaniem technologii użytej przy produkcji konsol. Najbardziej znaną konsolą pod tym względem jest Nintendo 64. Liczba "bitów" podawana w nazwach konsol odnosiła się do wielkości słowa maszynowego, na którym operuje procesor konsoli i używana była przez reklamodawców jako "pokaz mocy".

Jednakże stosunkowo prosto było zwiększać wielkość słów maszynowych poza te 32 czy 64 bity - wydajność konsoli zależy od wielu czynników, jak na przykład szybkości zegara procesora, przepustowości czy wielkości pamięci operacyjnej.

Era 32- i 64-bitowców była również okresem wzrostu popularności emulatorów konsol oraz aktywności graczy na scenie moddingowej. Jednym z pierwszych tłumaczeń fanowskich, tłumaczenie gry Final Fantasy V, wydane zostało właśnie w tej erze.

Tłumaczenie tej gry uważane jest za główny czynnik spopularyzowania następnych części gier Final Fantasy w Stanach Zjednoczonych. Z powodu zwiększenia popularności obrazy ROM na konsole NES i SNES rozeszły się po Internecie i łatwiej było je znaleźć podczas szóstej generacji niż ery 32- i 64-bitowców.

Oto te konsole (kolejność Nintendo 64, Sega Saturn, Atari Jaguar,Commodore Amiga CD32, Sony Playstation, Badai Pippin)


























































Przejście do trójwymiaru

Era 32- i 64-bitowców najbardziej znana jest ze wzrostu popularności gier prezentowanych w pełnym trójwymiarze. Ponieważ gry te oferowały nową jakość, ta era została przez nie zdominowana usuwając w cień tradycyjne gry dwuwymiarowe er 16- i 8-bitowej. Super Mario 64 na Nintendo 64 i Tomb Raider na Saturn, a później również na PlayStation, były najlepszymi tego przykładami. Reklamowane były jako jedne z pierwszych w pełni trójwymiarowych gier na konsole.

Niezadowolenie starszych graczy

Wraz ze wzrostem popularności trójwymiarowych gier narodził się termin używany przez starszych graczy: "new school" gaming (granie "nowej szkoły"). Najczęściej używany jako określenie pejoratywne, odnoszące się do graczy grających w gry, ich zdaniem, pozbawione grywalności. Mówili oni, że młodsi gracze nastawiają się na nowinki techniczne w grach, a nie na same gry. Wielu krytyków, z których niektórzy zaczęli nazywać siebie old school gamerami (gracze staroszkolni), nazwali tę erę "rewolucją przemysłu" gier komputerowych i niewzruszenie mówili, że gry na konsole SNES były ciekawsze od tych w erze 32- i 64-bitowców (i idąc dalej również od tych dostępnych dzisiaj). Jedną z fundamentalnych różnic pomiędzy graczami staro- i nowoszkolnymi to nastawienie się tych drugich na bardziej rzeczywistą animację postaci z gier (która była już wykonana w grze Prince of Persia, lecz większe znaczenie miała animacja w pełnym trójwymiarowym środowisku, czyli w grach typu Tomb Raider czy Tekken) zamiast szybszej dwuwymiarowej gry akcji podobnej do kreskówki z tytułami, takimi jak Super Mario World czy Sonic the Hedgehog.

Inną fundamentalną zmianą było rozpowszechnienie technologii CD-ROM, która pozwoliła na dołączenie bardziej zawiłej fabuły do gier komputerowych. Krytycy mówili, że producenci zajmą się rozwijaniem fabuły zamiast grywalnością gier.

Wojny konsol

Era 32- i 64-bitowców była głównym okresem trwających do teraz "wojen konsolowych" pomiędzy producentami konsol. "Wojny konsolowe" to określenie na prześciganie się w informowaniu konsumenta o zaletach własnej konsoli i wadach rywali. Z powodu czasu, który upływał na tworzeniu konsol wzrastały oczekiwania konsumentów. Jednocześnie konsumenci byli pozostawieni jedynie na porównywanie spekulowanych zalet i wad konsol. Wiele wydarzeń i informacji były tworzone, aby zmylić klientów, zmiejszając tym samym ich zaufanie do firm produkujących konsole.

Pomimo dużego wsparcia od producentów gier, cena początkowa 3DO Interactive Multiplayer wynosząca 700 dolarów spowodowała, że nie zyskała ona ogromnej popularności.
Sega 32X, upgrade Mega Drive/Genesis i Sega [Mega-]CD, który wprowadzał na powyższe konsolę architekturę 32-bitową, został wydany rok przed wydaniem konsoli Saturn. Gracze, którzy zakupili 32X byli niezadowoleni z posunięcia Segi, ponieważ gdy została wydana konsola Sega Saturn, 32X stracił popularność. Ta pomyłka zrujnowała firmę Sega i jest uznawana za główną przyczynę porzucenia przez koncern tworzenia konsol, a zajęciem się tworzeniem gier.
Atari Jaguar został wydany w 1993, mając dobry start. Jednakże liczba dobrych gier na tę platformę okazała się bardzo mała (wartymi odnotowania są głównie Tempest 2000, Wolfenstein 3D, Doom i Alien vs. Predator). Również użyta w nim architektura 64-bitowa okazała się kontrowersyjna.
Czasopisma o grach cały czas porównywały specyfikacje sprzętowe wszystkich konsol używając niepewnych statystyk. Producenci konsol zazwyczaj podawali teoretycznie najwyższe wartości renderowania obiektów trójwymiarowych, nie wliczając w nie czasu potrzebnego dla sztucznej inteligencji, oświetlenia czy mapowania tekstur.
Na koniec Atari, mające problemy, zostało wykupione przez JT Storage (a później Infogrames) i przestało tworzyć sprzęt do gier.

Cd kontra kartridż

Podczas ery 32- i 64-bitowców Nintendo wykonało pewnego rodzaju kontrowersyjną decyzję robiąc z Nintendo 64 konsolę wykorzystującą kartridże. Nintendo broniło się mówiąc, że dzięki temu gry będą miały krótszy czas uruchamiania niż gdyby były wydawane na płytach CD oraz, że utrudnia to piractwo gier. Korzyści jednak też były niepewne, ponieważ produkcja kartridży była dużo droższa od produkcji płyt CD. Wtedy praktycznie wszyscy producenci konsol zaczęli wykorzystywać nową technologię napędów CD-ROM, a wielu producentów zaczęło produkować gry na Sony PlayStation. Spowodowało to małą wojnę pomiędzy graczami. "Wojna nośników" była dodatkowo pobudzana przez oświadczenia samych prezesów firm. Jeden z magazynów Nintendo pokazał statek kosmiczny (kartridż) obok ślimaka (płyty CD) i wezwał konsumentów do "zdecydowania", który jest lepszy.

Debata między zwolennikami kartridżów a płyt CD doszła do niesławnego finału, wydania gry Final Fantasy VII na konsolę PlayStation. Pomimo tego, że wszystkie poprzednie sześć części Final Fantasy zostało wydanych na konsole Nintendo, producent serii, Square (teraz znany jako Square Enix), zdecydował się wydać Final Fantasy VII na konsolę Sony. W odpowiedzi na to prezes Nintendo publicznie oświadczył, że Nintendo nie potrzebuje gier Square, ponieważ "gry firmy Square były słabe i powolne, a gracze nie chcą grać w gry słabe i powolne". Ta wypowiedź spowodowała masową falę krytyki zwróconą w stronę Nintendo i jej konsoli na kartridże.












Made by Robson Studio 2010

poniedziałek, 8 marca 2010

Historia gier komputerowych (6 generacja)

Szósta generacja (czasem nazywana erą 128-bitowców, zobacz sekcję poniżej) odnosi się do gier komputerowych, konsol i przenośnych konsol gier wideo dostępnych na początku XXI wieku. Platformy szóstej generacji to Sega Dreamcast, Nintendo GameCube, Sony PlayStation 2 i Microsoft Xbox.

Konsola PlayStation 2 zdominowała konkurencję sprzedając ponad 100 milionów sztuk. Xbox był na drugim miejscu z wynikiem 24 milionów sztuk, a Nintendo trzecie z 20,85 milionami sprzedanych GameCube'ów. Mówi się także, że Sega Dreamcast został sprzedany w 10 milionach egzemplarzy.

















































Liczba bitów

Liczba bitów w konsolach stała się normatywnym określeniem jakości konsol w erze 32-bitowców. Liczba “bitów” podawana przy nazwach konsol odnosiła się do słowa maszynowego na którym operuje procesor. Jednak wydajność konsol nie zależy wcale od wielkości słowa. Można bez problemów zwiększyć wielkość słowa maszynowego powyżej 32-bitów - wydajność konsoli zależy również od innych czynników, jak szybkość procesora konsoli, szybkości procesora graficznego, przepustowości i wielkości pamięci.

Sega Dreamcast, 32-bitowa i ostatnia konsola reklamowana ilością bitów, miała dwuinstrukcyjny 32-bitowy procesor, 64-bitową kartę graficzną i 64-bitową magistralę danych. Jeden z wielu procesorów PlayStation 2 znany jest jako “128-bitowy Emotion Engine”, lecz tak naprawdę jest on dwuinstrukcyjnym procesorem 64-bitowym. Nintendo GameCube jest wydajniejszy od PS2, mimo że posiada jednoinstrukcyjny 64-bitowy procesor.

Microsoft Xbox, który również jest wydajniejszy od PS2, używa natomiast 32-bitowego procesora i 256-bitowego procesora graficznego, czyli konfiguracji, która stała się standardem wielu komputerów osobistych. Ważność w ilości bitów na rynku konsol zmalała z powodu używania komponentów, które operują na różnych wielkościach słów maszynowych. Sega Dreamcast i PlayStation 2 były ostatnimi konsolami, używającymi terminu “128-bitów” w ich marketingu w celu opisania ich możliwości.

Konsole przenośne

Podczas szóstej generacji rynek przenośnych konsol gier wideo znacznie się rozszerzył dzięki wprowadzeniu nań nowych urządzeń od różnych producentów. Nintendo utrzymało większą część rynku dzięki wydaniu w 2001 ulepszonej wersji konsoli Game Boy nazwanej Game Boy Advance.

Następnie firma wydała dwa odświeżone wersje systemu: Game Boy Advance SP w 2003 i Game Boy Micro w 2005. Podczas tej generacji wprowadzone zostały na rynek również Neo Geo Pocket Color w 1998 i Bandai WonderSwan Color w Japonii w 1999. Warto odnotować, że w 2001 koreańska firma Game Park wydała własny przenośny system GP32, który był pierwszą przenośna konsolą gier wideo o strukturze open-source.

Główną innowacją na rynku stało się dodawanie do konsol możliwości, które nie były przeznaczone do grania. Wszystkie możliwości, jak telefon komórkowy, odtwarzacz MP3, przenośny odtwarzacz filmów czy nawet palmtop, były dodawane do istniejących konsol. Pierwszą taką hybrydą była Nokia N-Gage, która wydana została w 2003 i była reklamowana głównie jako telefon komórkowy.

Później, w 2004, konsola została przerobiona i wydana jako N-Gage QD. Drugą taką konsolą był Zodiac, firmy Tapwave wydany w 2004, bazujący na Palm OS. W konsoli znalazło się wiele opcji zwykle dostępnych w palmtopach.

Gdy coraz więcej przenośnych konsol pojawiało się na rynku pod koniec generacji, trudno było określić, kiedy dokładnie kończy się szósta i rozpoczyna siódma generacja. Zwykle mówi się, że siódma generacja rozpoczęła się pod koniec 2004 wydaniem przez Nintendo konsoli Nintendo DS i PlayStation Portable firmy Sony.

Kontrowersyjność

Osobny artykuł: Kontrowersyjność gier komputerowych.
Podczas tej generacji gry komputerowe stały się obiektem krytyki osób publicznych za "niepożądaną" zawartość prezentowaną w grach (seks, przestępstwa, przemoc, przekleństwa, użycie narkotyków czy społeczna propaganda oraz poruszanie w grach takich tematów, jak religia, polityka, feminizm czy ekonomia).

Jednakże większość krytyki była nieprawidłowa, gdyż w większości dotyczyła gier wydanych dawno temu, jak Wolfenstein 3D, Doom, Mortal Kombat czy Night Trap.

W szóstej generacji warte odnotowania były również sprawy sądowe wytoczone kilku firmom z przemysłu gier komputerowych.

Najbardziej znaną sprawą była sprawa gier Grand Theft Auto III i Grand Theft Auto: Vice City, których producenci zostali oskarżeni o ukryty rasizm i podżeganie do popełniania wykroczeń, natomiast Grand Theft Auto: San Andreas dostała plakietkę "tylko dla dorosłych" z powodu odnalezienia w grze minigierki pozwalającej na odbycie stosunku z dziewczynami bohatera za pomocą modyfikacji Hot Coffee.

W szóstej generacji doszło do zamachu na World Trade Center i Pentagon, co miało duży wpływ na przemysł rozrywkowy, jak i na przemysł gier komputerowych powodując zmniejszenie wydźwięku wielu gier. Najbardziej znanym przykład jest Metal Gear Solid 2, który do czasu wydania przedstawiał w grze zniszczenie Statuły Wolności i dużej części Manhattanu.

Emulatory i stare gry

Z powodu zwiększonego użycia emulatorów i coraz łatwiejszemu dostępowi do wyszukiwarek obrazów ROM na poprzednie konsole gier wideo, szósta generacja gier zbiegła się ze wzrostem popularności emulacji konsol.

Był to również okres, w którym klasyczne gry były ulepszane lub ponownie dystrybuowane na nowsze systemy. Na przykład Nintendo wydało serię "klasycznych" gier dla konsol NES i SNES na przenośną konsolę Game Boy Advance. Innymi takimi grami były m.in. Wild ARMs: Alter Code F, Final Fantasy I & II: Dawn of Souls czy Metroid: Zero Mission.

Również duża część third-party developerów wydała antologie gier (wśród tych firm były między innymi Midway Games, Capcom, Namco, Atari czy Sega). Dodatkowo szósta generacja była również okresem, w którym duża liczba gier lub serii gier początkowo wydanych w Japonii zaczęła być sprzedawana w Ameryce Północnej i Europie.










Made by Robson Studio 2010

piątek, 5 marca 2010

Historia gier komputerowych (7 generacja)

7 generacja


Siódma generacja to era gier komputerowych w historii, która rozpoczęła się z początkiem 2005 wydaniem konsoli Xbox 360. Całkowite przejście do siódmej generacji miało miejsce w 2006 razem z wydaniem nowych konsol gier wideo od firm Nintendo i Sony.

Microsoft nazwał tę generację "erą High Definition", tak, jak piąta generacja została nazwana "erą 3D".
Konsole gier wideo Siódma generacja konsol gier wideo rozpoczęła się wydaniem Xbox 360 22 listopada 2005.

Konsole tej generacji

















































Przenośne konsole


Dla przenośnych konsol gier wideo siódma generacja rozpoczęła się z wydaniem przez Nintendo konsoli Nintendo DS. Ten system bazuje na zupełnie innym projekcie od Game Boya.


Nintendo DS w porównaniu do poprzednich generacji oferował nowy sposób kontrolowania gry i nowe możliwości: Ekran dotykowy i mikrofon. Konsola ta wydana została w drugiej połowie 2004. Mniej więcej w tym samym czasie Sony wydało swój pierwszy przenośny system, PlayStation Portable, w Japonii.


Pomimo wydania w podobnym czasie PlayStation Portable nie był reklamowany do tej samej publiki, co Nintendo DS. Również w 2005 wydana została konsola Gizmondo firmy Tiger Telematics.

2005 i 2006, odpowiednio, były latami wydania GP2X od Gamepark Holdings i oficjalnego ogłoszenia XGP firmy GamePark. Obydwie konsole idą innymi ścieżkami marketingu od DS czy PlayStation Portable. Obydwie mają pracować na systemie operacyjnym bazującym na Linuksie z architekturą open-source w celu zwiększenia możliwości tych urządzeń. GP2X jest dwuwymiarowym systemem, który bardziej nadaje się do słuchania muzyki i oglądania plików wideo skopiowanych na urządzenie przez użytkowników.


XGP ma być trójwymiarową przenośną konsolą podobną do PlayStation Portable, stworzoną dla komercyjnych gier. Producent obiecuje architekturę opartą na jądrze Linuksa oraz jednocześnie obsługę systemu Windows CE. XGP ma być bardziej rozbudowany od GP2X. Ma on oferować podobne możliwości zapisywania danych i jednocześnie ma obsługiwać zawartość streamowaną, jak przenośną telewizję T-DMB i Wi-Fi.





























made by Robson Studio 2010