Definicja Historia informatyki co oznacza. Czym jest nadzwyczajnie obfitującym w nowe wynalazki.

Czy przydatne?

Definicja Informatyki Historia

Co to jest HISTORIA INFORMATYKI wiek XX był bez wątpienia dla rozwoju techniki okresem nadzwyczajnie obfitującym w nowe wynalazki wytyczające kierunki rozwoju cywilizacji. Już osiągnięcia wieku XIX wydawały się ludziom wtedy żyjącym tak bardzo bogate w odkrycia, iż jeden z urzędników amerykańskiego biura patentowego przewidywał jego rychłe zamknięcie, bo wszystko zostało już wynalezione. Dziś, siedząc przed komputerem albo telewizorem, wiemy, jak bardzo się mylił. Jesteśmy także mądrzejsi o tyle, iż nie brak nam wiary w to, iż lata kolejne przyniosą dalszy lawinowy wręcz postęp edukacji i techniki. Jeśli próbowalibyśmy szukać wynalazku, który wywarł największy wpływ na cywilizację i różne dziedziny techniki w XX w., to mimo znacznych osiągnięć we wszystkich jej dziedzinach, na przykład w energetyce – opanowanie energii jądrowej, w transporcie – upowszechnienie indywidualnej, dającej poczucie wolności, komunikacji samochodowej, można byłoby osiągnąć powszechną opinię, iż wynalazkiem takim był komputer. Trudno jest gdyż znaleźć taką dziedzinę techniki czy innego obszaru ludzkiej aktywności, na którą wynalazek komputera nie wywarł bezpośredniego albo choćby pośredniego wpływu. Człowiekowi urodzonemu w latach ”90 komputer towarzyszy od chwili narodzin, będąc aktualny w sali porodowej jako obiekt aparatury medycznej, w samochodzie wiozącym go do domu, czy w urzędzie, gdzie w komputerowej bazie danych zostaje zarejestrowany jako nowy obywatel. Zanim przedstawimy przykładowe dziedziny naszego życia, gdzie towarzyszą nam komputery, poświęćmy nieco uwagi historii rozwoju ich konstrukcji, a również rozwoju dziedziny wiedzy nazywanej w j. polskim informatyką, a obejmującej swoim zakresem dziedziny określane w języku angielskim jako teoria informacji i edukacji komputerowe. Samo wyraz „komputer” pochodzi od angielskiego słowa compute, a więc obliczać, takie było gdyż pierwotnie jego użytek i do niedawna z tego właśnie powodu nazywany był on w Polsce maszyną matematyczną. Komputer użytkowany do obliczeń ma bardzo wielu, bardzo starych protoplastów. Od najdawniejszych czasów człowiek wykorzystywał do liczenia palce, z VI w przed naszą erą pochodzą wzmianki z Persji i Chin o wykorzystywaniu do tego celu węzłów na sznurach, taki mechanizm rozwinęli także mieszkańcy Ameryki Płd., w języku Inków liczydło sznurowe nazywało się quipu. Ze starożytnego Egiptu wywodzi się, upowszechniona poprzez Rzymian, tak zwany maszyna do liczenia, zwana abakus albo abak, a będąca pierwowzorem używanego jeszcze w latach ’50 i ’60 liczydła (szczoty), gdzie przesuwano początkowo kamyki na drewnianej albo marmurowej płycie, a potem krążki nanizane na umocowane w drewnianej ramce pręty. Pierwszymi maszynami służącymi człowiekowi do liczenia, co prawda tylko upływającego czasu, były zegary mechaniczne. Ideę zębatych kółek wykorzystał francuski filozof B. Pascal, który w 1642 zbudował maszynę do dodawania i odejmowania. Arytmometr B. Pascala udoskonalony został w latach 1673-79 poprzez niemieckiego filozofa i matematyka G.W. Leibnitza (jak się okazuje filozofowie także przyczyniali się do rozwoju techniki). Następnym ważnym krokiem w rozwoju narzędzi usprawniających mechanizm liczenia była maszyna analityczna, wymyślona poprzez brytyjskiego matematyka i wynalazcę Ch. Babbage’a, którego wspierała w pracy córka Lorda Byrona, zajmująca się matematyką Lady A.A. Byron-Lovelace. Maszyny analityczne Babbage’a, których dwie wersje zaprojektował w latach ’20 i ’30 ubiegłego stulecia, uważane są za pierwowzór współczesnego komputera. Aczkolwiek poprzez twórcę nigdy w pełni nie zrealizowane, pozwalały na wprowadzanie danych liczbowych, ich zapamiętywanie, przetwarzanie i wyprowadzanie wyniku. W 1991 pracownicy Muzeum Techniki w Londynie zbudowali działający schemat w oparciu o oryginalne projekty Babbage’a. Polskim znakomitym konstruktorem maszyny rachunkowej był sekretarz S. Staszica, A. Stern, który własną najlepszą, wykonującą cztery działania maszynę przedstawił Towarzystwu Nauk w Warszawie w 1812. Arytmometry, przeważnie kojarzone z kasami sklepowymi albo maszynami do księgowania, rozpowszechniły się na przełomie XIX i XX wieku i są czasami używane do teraz. Innym istotnym wynalazkiem, wykorzystanym potem do zapisywania i wprowadzania danych, pierwszym wynalazkiem „informatycznym”, były drewniane karty dziurkowane, wymyślone i zastosowane w 1808 poprzez francuza J.M. Jacquarda do zapisu wzoru i sterowania robotą krosna do tkanin o skomplikowanym splocie, zwanych potem żakardami. Karty dziurkowane wykorzystał również amerykański statystyk H. Hollerith do zapisu danych spisu powszechnego w stanach zjednoczonych ameryki z 1890 i przeprowadzenia obliczeń na elektromechanicznych maszynach liczących. Karty dziurkowane i taśma dziurkowana były powszechnie używane jako nośniki programów i danych jeszcze w latach ”70 XX wieku. Dalsze doskonalenie metod i narzędzi prowadzenia obliczeń powiązane jest nierozerwalnie z elektroniką – dziedziną, której dynamiczny postęp był następstwem wynalezienia lampowej diody poprzez anglika Sir J.A. Fleminga w 1904 i triody poprzez amerykanina L. De Foresta w 1906 (opracował on również metodę zapisu dźwięku na taśmie filmowej), a potem tranzystora i układu scalonego. Dla stworzenia pierwszych komputerów wykorzystujących lampy elektronowe ogromnym impulsem była, jak to się regularnie w rozwoju techniki zdarza – wojna, a konkretnie druga wojna światowa. Jeszcze przed włączeniem się USA do działań zbrojnych powstał w 1939 prototyp komputera, zbudowany poprzez J.V. Atanasoffa (ur. 1903) i C. Berry”ego w Iowa State College. W Ogromnej Brytanii zbudowano w 1943 komputer „COLOSSUS” (1500 lamp), używany do deszyfracji niemieckich komunikatów radiowych poprzez zespół pod kierunkiem A.M. Turinga, matematyka i teoretyka przetwarzania informacji (sformułował koncepcję teoretycznej „maszyny Turinga”, mogącej wykonywać dowolne operacje matematyczne). Na czołowej amerykańskiej uczelni technicznej MIT (Instytut Techniki w Massachusetts) w tym samym czasie, na polecenie dowództwa sił zbrojnych, zbudowano między innymi z lamp, przekaźników i przedmiotów mechanicznych wielką, ważącą 40 t maszynę, mogącą mnożyć dwie liczby dwudziestotrzycyfrowe pośrodku 6 sekund. Ten elektromechaniczny komputer o nazwie „MARK I” (poprzez konstruktorów nazywany bardziej pieszczotliwie „Bessie”) oddał nieocenione usługi armii amerykańskiej, wykonując także nie wszystkie obliczenia powiązane z realizacją projektu „Manhattan” – wyprodukowania pierwszej bomby jądrowej. Pomysły zastosowane poprzez Atanasoffa zostały wykorzystane poprzez grupę konstruktorów z Uniwersytetu Harvarda przy budowie w 1945, wymienianego regularnie jako pierwszy, komputera „ENIAC”. Ważył on 30 t i zajmował ogromne pomieszczenia. Zbudowany był z 500 000 przedmiotów, w tym 18 000 lamp elektronowych, z pamięcią o pojemności 20 liczb i programem określanym poprzez zmieniane ręcznie połączenia elektryczne procesora. Kolejnym komputerem był EDVAC, mogący zapamiętać już 1000 liczb dzięki wykorzystaniu pomysłów amerykańskiego matematyka (węgierskiego pochodzenia), wielce zasłużonego dla rozwoju informatyki J. von Neumanna (1903-57). Pierwszym komputerem, który był od 1951 sprzedawany i który mógł przetwarzać dane liczbowe i tekstowe, był zaprojektowany poprzez J. P. Eckerta i J. Mauchly’ego komputer UNIVAC. Prawdziwe upowszechnienie się komputerów powiązane było jednak z opracowaniem poprzez firmę IBM, pod koniec lat ’50, komputerów z rodz. 360, z oprogramowaniem pracującym na wszystkich komputerach tej klasy i podjęciem ich masowej produkcji. Dalsze upowszechnienie się komputerów stało się możliwe dzięki wynalezieniu tranzystora i jego masowej produkcji od lat ’50, a potem pod koniec lat ’60 pierwszych układów scalonych. Przedmioty półprzewodnikowe – tranzystory i układy scalone małej i średniej skali integracji – pozwoliły na produkcję komputerów trochę tańszych i bardziej niezawodnych niż ogromne konstrukcje lampowe. Najpierw lat ’70 komputery zbudowane w oparciu o układy scalone, ze względu swoich niewielkich (mała szafa) wymiarów, zyskały miano minikomputerów, jednak ani ich użytek, ani możliwości obliczeniowe nie miały sporo wspólnego z maszynami, które dziś tak tytułujemy. Światowym liderem w produkcji komputerów typu mainframe i minikomputerów biurowych była do lat ”80 spółka IBM. Jak niewiarygodną ciekawostkę można dziś odbierać informację, iż pamięci operacyjne komputerów do połowy lat ’70 realizowane były z pierścieni ferrytowych, o średnicy zewnętrznej mniejszej niż średnica główki szpilki, poprzez otworki których przewlekano trzy cienkie druciki, „szyjąc” płaty pamięci rdzeniowych, gdzie pojedynczy pierścień – rdzeń pamiętał jeden bit informacji. Urządzeniami pamięci zewnętrznej były czytniki kart dziurkowanych (nośniki karty) i potem napędy pamięci magnetycznej: bębnowej i dyskowej, a urządzeniami wyjściowymi, na które wyprowadzano wyniki, były dziurkarki kart albo w najwspanialszym razie drukarki dalekopisowe lub wierszowe. Pierwszym superkomputerem mogącym wykonywać 100 000 000 obliczeń (na liczbach zmiennoprzecinkowych) był skonstruowany poprzez S. Cray’a komputer CRAY-1. Aktualnie jego moc obliczeniowa stała się nieformalną jednostką dla określania możliwości współczesnych superkomputerów, których moce dochodzą do 1000 Cray’ow. CRAY-1 używany był między innymi do rozwiązywania tak złożonych problemów, jak badanie mowy i prognozowanie meteorologiczne, problemów, z którymi (również dzięki bardziej efektywnym algorytmom) radzą sobie dziś mocniejsze komputery osobiste. W Polsce pierwsze próby konstruowania komputerów podjęto w 1949, jednak aż do 1958 nie wyszły one poza badania laboratoryjne. Pierwszą ukończoną maszyną, nazywaną wówczas również „mózgiem elektronowym”, był zbudowany w Zakładzie Aparatów Matematycznych PAN komputer „XYZ”, który potrafił pośrodku l sekundy dodać 1000 liczb, a pomnożyć 350. Późniejszymi konstrukcjami były komputery serii ZAM i wytwarzane we Wrocławskim Elwro komputery serii „Odra”, które nie nadążały za światowymi rozwiązaniami, bazując na komputerach IBM, początkowo serii 360. Pewną szansą dla rozwoju polskiej informatyki, niestety zniweczoną poprzez komunistyczne władze, był minikomputer K-202, konstrukcja J. Karpińskiego, wyprzedzająca najpierw lat ’70 ówczesne rozwiązania światowe. Działający prototyp został „zniszczony” wraz z jego konstruktorem, który nareszcie wyemigrował do Szwajcarii. Wspólnie z postępem sprzętu komputerowego, następował postęp teorii informacji, opisującej prawa matematyczne rządzące przetwarzaniem i przesyłaniem informacji, której podstawy stworzył w 1948 amerykański inż. C. E. Shannon. Sformułowana poprzez niego, w artykule „Matematyczna teoria komunikowania”, uniwersalna teoria obejmowała zarówno przetwarzanie informacji w systemach powstałych poprzez człowieka, jak i przesyłanie i przetwarzanie informacji – bodźców w systemach nerwowych żywych organizmów, w tym także człowieka. Do przetworzenia i jednolitego zapisu różnych rodzajów i form informacji (tekstów, obrazów, dźwięków, filmów i tym podobne) w formie cyfrowej, stosuje się powszechnie mechanizm dwójkowy, gdzie jedynce odpowiada bodziec elektryczny o określonej amplitudzie, a zeru brak tego impulsu. Teoria informacji, bazując na pojęciach entropii informacyjnej (miary nieuporządkowania) i redundancji (nadmiarowości informacji), ustala możliwości i metody kodowania i kompresji informacji, niezmiernie ważne dla efektywnego zapisu i szybkiego ich przesyłania. Przyrost możliwości obliczeniowych komputerów powodował zwiększanie się stopnia złożoności rozwiązywanych poprzez nie problemów, a to dalej powiązane było z coraz to większym stopniem złożoności algorytmów i koniecznością zapisywania ich w skuteczny, a równocześnie łatwy do interpretacji i poprawiania sposób. Programy pisane początkowo w kodzie maszynowym (jako ciągi zer i jedynek) stawały się zbyt złożone, zaczęto więc opracowywać języki programowania wysokiego poziomu, w tym również programowania strukturalnego, by pracę programistów uczynić bardziej skuteczną i umożliwić zrozumienie programu poprzez użytkownika. Pierwszym językiem wysokiego poziomu był stworzony poprzez G. Hopper język FLOW-MATIC do programowania komputerów UNIVAC I i II. Językami, które stały się pierwszymi standardami, gdzie program zapisywany był dzięki słów angielskich i symboli, były: FORTRAN (przygotowany w 1954), COBOL (1959) i ALGOL (1960). Językami powstałymi do edukacji programowania (lecz użytkowanymi nie tylko w tym celu) są PASCAL (1971) i LOGO (1968). W rozwiązywaniu zagadnień sztucznej inteligencji użytkowane są LISP (1960), PROLOG i bardzo szeroko używany nie tylko w tej dziedzinie C++. Językiem w najwyższym stopniu popularnym pośród amatorów programowania, którego upowszechnienie powiązane było z powstaniem komputerów osobistych, jest niewątpliwie BASIC (1965). Ostatnio przygotowane zostały języki HTML i JAVA opisu stron hipertekstowych i hipermedialnych, dostępnych przez sieci Internet i WWW. Stworzenie mikroprocesora 8-bitowego w połowie lat ”70 i rozpoczęcie jego masowej produkcji wywołały pojawienie się na rynku mikrokomputerów, które w szybkim tempie, dzięki łatwości obsługi i dostępnej cenie, zaczęły wreszcie trafiać do indywidaualnych użytkowników. Postęp konstrukcji coraz to bardziej wydajnych mikroprocesorów, coraz bardziej pojemnych półprzewodnikowych pamięci RAM i szybki postęp oprogramowania wywołały, iż pod koniec lat ”90 spełniło się pragnienie B. Gatesa, współzałożyciela Microsoftu, o komputerze na każdym biurku i w każdym domu. Moce obliczeniowe mikrokomputerów dorównują możliwościom superkomputerów sprzed lat i zmieniły kompletnie sposób wykonywania pracy poprzez wielu ludzi. Inż. wykorzystuje programy CAD-CAM, księgowa pakiety zintegrowane i szczególne oprogramowanie do prowadzenia ksiąg handlowych, a pracownik redakcji i sekretarka nie wyobrażają sobie pracy bez edytora tekstu i programu składu komputerowego DTP. Artysta filmowy, mający do dyspozycji potężne stacje robocze i programy do tworzenia animacji, zaskakuje nas obracającą się w kółko głową Meryl Streep, czy rozpadającym się na kawałki Arnoldem Schwarzeneggerem, a już można zobaczyć video, gdzie występują w okolicy siebie „jak żywi”, wykreowani poprzez komputer opierając się na zdjęć i obrazów z dawnych filmów: Marylin Monroe, Humphrey Bogart, Greta Garbo i James Dean. Sporo dzieci, a również osób dorosłych za idealny sposób spędzania czasu uważa gry komputerowe, szczególnie jeśli zawierają przedmioty wirtualnej rzeczywistości. Komputery obecne są dziś w prawie każdej szkole. Myliłby się jednak ten, kto komputery i wykorzystania informatyki kojarzy jedynie z kolorowym monitorem, klawiaturą i dyskietkami. Miliony mikroprocesorów pracują w ciszy, z dala od blasku monitorów, sterując robotą wielu używanych na co dzień urządzeń, które ich pozbawione przestałyby pasować do naszych wyobrażeń i oczekiwań. W droższych modelach samochodów, mikrokomputer czuwa nad bezpieczeństwem jadących, odbierając sygnały z czujników umieszczonych przy kołach i sterując systemem zabezpieczającym je przed blokowaniem przy hamowaniu (ABS) czy systemem antypoślizgowym przy przyspieszaniu (ASR), a w wypadku krytycznej, w przypadku wypadku, odcinając dopływ paliwa i uruchamiając poduszkę powietrzną. Komputer dba o nasz komfort, nadzorując urządzenie klimatyzacyjne, przestrajając radio na odbiór tej samej stacji z innego nadajnika (RDS) czy wreszcie, jeśli mamy faktycznie drogi auto, podpowiadając nam miłym kobiecym głosem mechanizmu nawigacyjnego, którędy mamy jechać i gdzie skręcić, by ominąć korki i dojechać punktualnie do celu. Te łatwe, pierwsze z brzegu przykłady zastosowania wspomagających nas mikroprocesorów, pomagają nam uświadomić sobie, jak sporo może od nich zależeć, jak bardzo na przykład postęp informatyki wymienił auto. Wartość urządzeń elektronicznych dochodzi już do 25% jego ceny, a przecież nie powstałby bez innych komputerów, tych z programem CAD w pracowni projektantów, symulujących opory aerodynamiczne, sterujących robotami montującymi podzespoły i lakierującymi karoserię, czy wreszcie komputerów pracujących w działach zamówień i sprzedaży, w księgowości, sekretariacie. W podobny sposób można aby poddać analizie wpływ komputerów na dowolny wycinek naszego życia, pracy, spędzania wolnego czasu. Nie uświadamiamy sobie ich roli, gdy oglądamy w kinie domowym program telewizyjny odbierany z satelity, który nie powstałby, nie został wystrzelony, nie utrzymywałby się na orbicie geostacjonarnej, czy wreszcie nie transmitowałby tego programu, gdyby nie było adekwatnie oprogramowanych mikroprocesorów. Istnieją już „błyskotliwe” mechanizmy komputerowe, które nadzorują funkcjonowanie całego domu, rozpoznają, gdy budzimy się rano, włączają światło, gdy wchodzimy do łazienki, automatycznie uruchamiają ekspres do kawy i toster, abyśmy zdążyli ze śniadaniem. Jeśli czujemy się „opieką” komputerów zbyt znużeni, to – na przykład w niedzielę – możemy je wyłączyć. Na zakończenie można zacytować porównanie, jakie poczyniono na temat takiego domu w jednym z tygodników; ktoś mówi: „Mam psa, który pilnuje mi domu”, a drugi: „A ja mam dom, który pilnuje mi psa”. Tak faktycznie, to psa pilnuje komputer
Definicja HyperTerminal:
Co to jest program w Windows 95 wykorzystywany do przesyłania danych poprzez modem historia informatyki co znaczy.
Definicja HTML Applications Lub HTA:
Co to jest programów dzięki języka HTML przygotowana poprzez Microsoft. Bazuje ona na pisaniu aplikacji dzięki języka HTML i używaniu składników na ogół stosowanych do pisania stron internetowych (skrypty Javy historia informatyki krzyżówka.
Definicja Hyper-Threading Lub Wielowątkowość HT:
Co to jest użytkowana w nowszych mikroprocesorach spółki Intel, która pozwala zachowywać się jednemu mikroprocesorowi, jakby był dwoma procesorami – jednym obsługującym mechanizm operacyjny i drugim historia informatyki co to jest.
Definicja HCF:
Co to jest się do ekipy tańszych modemów (tak zwany WinModemów), gdzie układ sterujący (chipset, przeważnie spółki Rockwell) zamiast samodzielnie wykonywać nie wszystkie zadania, przekazuje je do procesora historia informatyki słownik.
Definicja HOSTS Plik:
Co to jest rodzajem „mini serwera DNS” w każdym systemie Windows. Po wpisaniu poprzez użytkownika adresu URL wyszukiwarka sprawdza lokalny plik Hosts, by ustalić, czy jest tam wyszczególniona żądana nazwa historia informatyki czym jest.

Czym jest Historia informatyki znaczenie w Słownik Internet H .