Oprogramowanie multimedialne dla komputerów klasy MPC Multimedialne komputery osobiste i zestawy Upgrade Kits oferowane są bardzo często wraz z kompletem dysków multimedialnych. Dodanie tego tzw. „bundle" jest jak najbardziej sensowne, gdyż bez programów tych użytkownik nie miałby prawie wcale okazji wykorzystania nowych możliwości swojego sprzętu. Większość osiągalnych w tej chwili aplikacji MPC to produkty w języku angielskim. Zaczyna się organizować europejska sieć punktów dystrybucji, dzięki której możliwe staje się nabycie amerykańskich i europejskich aplikacji multimedialnych. Jak już opisano większość produktów MPC nie jest w stanie usatysfakcjonować użytkownika, ani pod względem pomysłu aplikacji, ani pod względem jakości wykonawstwa. Zdarzają się jednak niekiedy prawdziwe hity - rewelacyjne aplikacje, na które Amerykanie używają określenia „highlights". Do tych hitów należą m.in. niektóre encyklopedie oraz dwa pierwsze tytuły firmy Microsoft - „Microsoft Bookshelf i „Multimedia Beethoven. The Ninth Symphony". Aplikacje te opisano na innych stronach tej książki. Symptomatyczny jest fakt, że o powodzeniu aplikacji, uznanych za rewelacyjne, zadecydowała przede wszystkim ich pomysłowa koncepcja. Przykładowo na „beet-hovenowskim" dysku CD-ROM umieszczono tytuły „The Art of Listening" i „A Close Reading", które zawierają fachowe komentarze zaznajamiające użytkownika ze strukturą IX Symfonii Beethovena. W zasadzie jest to elektroniczne mini-kompendium wiedzy o Beethovenie i jego IX Symfonii, do którego dołączono oryginalny quiz. Wysoka jakość wspomnianych trzech dysków wynika też z konsekwentnego wykorzystania dotychczasowych mediów i technologii. Atrakcyjność „Encyklopedii" i „Microsoft Bookshelf polega na wyczerpujących tekstach, różnorodnych możliwościach wyszukiwania informacji i funkcjach hipertekstowych. Na żądanie użytkownika, wyszukana przez „Microsft Bookshelf" informacja może zostać zaprezentowana w formie dźwiękowej. Wielu producentów nie bierze pod uwagę tego, że dzisiejsze komputery klasy PC są za słabe dla aplikacji multimedialnych i konsekwentnie eksponuje wady kompterów osobistych, oferując multimedialne produkty o nazwach typu „Dzieła sztuki świata tego." itp. Czego można spodziewać się po aplikacjach o tak „oryginalnych" tytułach nie trzeba chyba wspominać.

Chcąc zminimalizować błędy występujące przy przetwarzaniu, transmisji i zapisie, należy zaangażować bardzo dobrych „kopistów", czyli zastosować odpowiednio złożone technicznie urządzenia, które są z oczywistych względów odpowiednio drogie. Ponieważ sumowaniu podlegają nawet najdrobniejsze błędy, a łańcuch „obróbki" jest dokładnie tak skuteczny, jak jego najsłabsze ogniwo, odpowiednio droga jest również analogowa technika studyjna wysokiej jakości. Nawet stosunkowo niewielka poprawa parametrów sprzętu rejestrującego i odtwarzającego, w zakresie możliwości eliminacji zakłóceń w synchronizacji i ograniczania szumów, a także radzenia sobie z tzw. odstępem szumu itp. - wymaga już olbrzymich nakładów przy wytwarzaniu sprzętu i znajduje odbicie w kosztach zastosowanych części, a tym samym w globalnych kosztach produkcji tego sprzętu. Technika cyfrowa obrała inną drogę. Słowo „cyfrowy" pochodzi od łacińskiego „digitus" , czyli „palec". Ujmując problem całkiem trywialnie - również trener piłkarski, który stojąc w ostatnich minutach meczu na obrzeżu boiska, pokazuje piłkarzom na palcach ile jeszcze minut zostało do końca gry, przekazuje w zasadzie informację w sposób „cyfrowy". Należałoby powiedzieć, że „koduje" je w postaci stałych wartości, odnosząc się do określonego momentu w upływającym czasie pozostałym do końca gry. Prezentacja cyfrowa nie odwzorowuje dokładnie ciągłego, przebiegającego bezskokowo procesu, polega natomiast na dokonaniu pomiaru charakteryzujących go parametrów w określonych, następujących po sobie punktach czasu. Wyniki pomiaru ujmowane są w postaci ciągów liczb, umożliwiając w każdej chwili dokładny odczyt, nie stanowi więc samego procesu, lecz go opisują w określonych, następujących po sobie punktach czasu, przyjmując postać ciągu liczb. Im mniejszy jest odstęp w czasie pomiędzy kolejnymi pomiarami, tym dokładniej da się proces opisać i potem odtworzyć - przyjmując oczywiście, że wyniki pomiaru są dokładne. Nie należy przy tym zapominać, że poddawany cyfrowej obróbce sygnał ma na wejściu charakter analogowy. Ciąg, następujących po sobie, rosnących i malejących wartości ciśnienia akustycznego wprawia w drgania membranę mikrofonu, a bardzo czuła cewka i magnes przekształcają je następnie w prąd o zmieniającym się odpowiednio napięciu. Liczba drgań następujących w ciągu jednej sekundy określana jest jako częstotliwość drgań, mierzona w Hertzach. Jedno drgnięcie w ciągu sekundy odpowiada częstotliwości 1 Hz. Dźwięki mogąmieć różną częstotliwość, częstotliwość określa wysokość dźwięku.

Przeglądarki rozwijają się cały czas i oferują coraz więcej, Microsoft nie chce zostać w tyle, więc Internet Explorer też się rozwija. Przed premierą system ten był reklamowany, jako prosty w użyciu i szybki. Jeszcze kilka lat temu przeglądarce ze stajni Microsoftu nic nie mogło zagrozić, przynajmniej tak się wydawało. Dziś już wiemy, że ma nie lada konkurencję, która w niektórych aspektach pokonuje IE. Trend wśród przeglądarek kilka lat temu wyznaczył Firefox. Pokazały się takie udogodnienia jak przeglądanie stron na kartach, wyszukiwanie z poziomu przeglądarki, uproszczenie interfejsu. Obecnie walka w świecie przeglądarek trwa między Internet Explorer 9, Chrome, Firefox, Opera i Safari. Obecnie w tym segmencie programiści dążą do jak największego uproszczenia interfejsu by strona miała jak największa powierzchnię wyświetlania. Paski powoli znikają, znikają pola wyszukiwania i inne aplikacje zajmujące miejsce. Na szczęście liczbę pasków można dostosować do własnych potrzeb. Wiele osób zaczyna przeglądanie od załadowania pustej karty lub strony ulubionej wyszukiwarki. Ale przecież strona startowa może mieć dużo funkcji, tak jest w przypadku Safari, przeglądarka ta wysuwa się an czoło pod tym względem. Możemy sobie umieścić do 24 stron, z których najczęściej korzystamy. Taka strona startowa znalazła się też w najnowszym IE 9, w Operze jest już od dawna, w Chrome też. Nadal ponad połowa przeglądarek na świecie to IE, drugie miejsce należy do Firefoksa, trzecie zajął Chrome. W naszym kraju natomiast najbardziej lubiany jest Firefox, potem dopiero IE i Chrome. Google kilka lat temu zaprezentowało swoja przeglądarkę pod nazwą Chrome. Przyjrzyjmy się jej bliżej. Jej zaletami są: Szybkie wykonywanie skryptów JavaScript, prosty interfejs, wyszukiwanie na pasku adresu, synchronizacja przeglądarki, oddzielne procesy dla kart. Wśród wad znajdują się: brak funkcji grupowania kart i obsługi RSS. Firefox z kolei szczyci się dobrą zgodnością ze standardami, masą rozszerzeń i motywów, możnością przypisania etykiet do kart, da się uruchamiać na wielu systemach operacyjnych, jest lubiana w Polsce. Niestety brak w niej wielu ciekawych funkcji, jakie znajdują się w innych przeglądarkach. Jak dla mniej jest to numer dwa zaraz za Chrome. Ale jeszcze rok czy dwa lata temu Fiorefoks był numerem jeden i nic nie zwiastowało tego, że spadnie ta przeglądarka na drugie miejsce. Jeśli chodzi o szybkość HTML%, JavaScriptu, Flasha to na pierwszym miejscu jest Chrome potem Opera. Jeśli niezależny nam na wydajności to postawmy na Operę, jest ona bardzo funkcjonalna i rozbudowana, ma bardzo dużo dodatkowych funkcji. Firefoksa niestety się popsuł i nie polecam używania teraz tej przeglądarki, chociażby ze względy na bezpieczeństwo.

Według badań przeprowadzonych w 2007 roku na jedną osobę przypadało około 50GB danych, dziś liczba ta może być nawet dwu krotnie większa. Przyczynił się do tego rozwój Internetu oraz powiększenie pojemności dysków. Aby przechowywać bezpiecznie takie dane musimy nagrywać je na odpowiednich nośnikach, bądź magazynować w innych miejscach. Jeśli byśmy nagrywali kpie zapasowe na płytach CD to pewnie byłby chaos ze względu na ich dużą ilość. Warto więc mieć odpowiedni porządek w swoich zasobach. Dlatego jeśli tak nie jest to zróbmy go a później o niego zadbajmy by nowy nie było bałaganu. Aby gromadzić kopie należy stworzyć do tego jeden folder, a nim podfoldery których nazwy powinny mieć jakieś dla nas znaczenie. Aby mieć porządek musimy nazywać foldery np. zdjęcia z wesela Janka umieszczamy w naszym głównym folderze z kopiami, w podfolderze zdjęcia i w kolejnym podfolderze o nazwie wesele-janka-2007. Czasem tez możemy zmieniać nazwy zdjęć jednak jest to pracochłonne, z pomocą może nam przyjść jeden z darmowych programów który zrobi taką operację grupowo. Warto też przed zrobieniem kopii przeskanować nasz dysk i znaleźć duplikaty plików, dzięki temu zachowamy większy porządek i zaoszczędzimy miejsce na dysku. Możemy to zrobić za pomocą jednego z darmowych programów dostępnych w Internecie. Nie bez znaczenia jest też zapis pliku w odpowiednim formacie. Jeśli mamy jakiś dokument o rozszerzeniu .doc czy jakimś innym, możemy być pewni że za 20 – 30 lat po prostu nie będziemy mieli jak go otworzyć. Postęp technologiczny będzie tak wielki że możemy nie mieć do tego odpowiedniego programu. Naprzeciw temu problemowi wyszli programiści którzy stworzyli specjalny rodzaj pliku nazwany PDF/A. Jest to specjalna wersja zwykłego pliku PDF która ma być odporna na czas. W pliku tym mają być zapisywane czcionki, obrazy czy dane co umożliwi ich otwarcie w oryginalny sposób. Funkcja tworzenia takich plików jest dostępna zarówno w pakiecie Office jak i w OpenOffice. Jednak zapisując dokumenty w ten sposób będziemy mieli jedynie możliwość ich odczytu ale nie będziemy mogli ich edytować.


Chcąc rozwiązać ten problem musimy pliki zapisywać w formacie ODT. Format ten AM otwartą specyfikacje co uniemożliwia manipulowanie nim. Za kilkadziesiąt lat może tez być problem z odczytem płyt DVD. Warto więc nie usuwać zarchiwizowanych danych ze swojego dysku. Musimy przyjąć pewną strategię podczas tworzenia kopii zapasowych. Sama operacja jaką musimy przeprowadzić jest bardzo czasochłonna i wcale nie taka prosta. Aby w sposób minimalny zabezpieczyć się przed utratą danych to przynajmniej raz w miesiącu musimy nagrać nasze ważne dane na płytę DVD. Przy robieniu backupu na tym nośniku musimy koniecznie zwrócić uwagę na jego jakość. Bowiem możemy już w ciągu 5 lat stracić możliwość odczytania płyt DVD. Dla takich płyt najbardziej niebezpieczne są promienie UV, dlatego należy wybierać nośniki z barwinkiem AZO który skutecznie je ochroni. Płyty takie należy przechowywać w oryginalnych opakowaniach w szafce z dala od wilgoci. Nie nagrywajmy dane na płyty CD po pierwsze mają one za małą powierzchnię a po drugie dane mogą zostać na nich niewłaściwie zapisane już podczas nagrywania. Co gdy zwykłe płyty DVD już nam nie wystarczą? Wtedy możemy nagrywać i magazynować skutecznie dane na dyskach twardych. Nie ważne jaki dysk wybierzemy to backup opłaca się tworzyć nawet co tydzień. Musimy tylko wyposażyć się w odpowiedni program który będzie to automatycznie za nas robił o określonym terminie. Pamiętajmy że dyski twarde mogą też być różnej kondycji, aby to sprawdzić monitorujmy SMART naszego dysku, powie on nam o jego zdrowiu wiele ciekawych rzeczy. Minusem jest to że dyski twarde wcale nie są bardziej żywotne niż płyty DVD. Dlatego po pięciu latach używania dysku bądźmy już ostrożniejsi i częściej sprawdzajmy SMART. Żywotność dysku jest także uzależniona od warunków jego przechowywania, dlatego zaraz po zgraniu danych zapakujmy dysk w oryginalne pudełko i torebkę antystatyczną. Pamiętajmy że najbardziej dla naszego dysku groźne są wstrząsy, dlatego nie dopuśćmy do upadku dysku nawet z najmniejszej wysokości. Warto też pamiętać o odłancaniu dysków zewnętrznych jeśli ich nie używamy. Kolejnym rozwiązaniem które może służyć za backup danych z wielu komputerów są sieciowe dyski NAS. Dzięki odpowiedni programom dane zawarte na kilku albo i na większej ilości komputerów mogą być zgrywane na takie dyski sieciowe np. co tydzień. Zakupując odpowiednią obudowę do takiego dysku będziemy mieli system automatycznego sprawdzania SMART który często się w niej znajduje. Zakupując taki dysk często dostaniemy dołączone oprogramowanie do robienia kopii zapasowych. Obudowy dysków dają nam możliwość tworzenia macierzy RAID dzięki miejscu na kilka tych urządzeń wewnątrz obudowy. Jeśli dane nasze są bardzo ważne można zastanowić się nad rozproszeniem kopii bezpieczeństwa. Nie wystarczy tylko dysk NAS w takiej firmie bowiem w przypadku pożaru czy np. kradzieży dane i backup znajdują się w tym samym miejscu. Dlatego niektórzy producenci dysków sieciowych oferują tworzenie kopii kaskadowych. Dzięki temu na dwóch różnych dyskach NAS są trzymane te same dane, a dyski te znajdują się w dowolnym miejscu na świecie.

Jest to następca OsCommerce - sklepu internetowego. Jednak jest on znacznie bogatszy w moduły, dzięki którym znacznie łatwiej zarządza się sklepem. Funkcjonalność sklepu tez została bardzo wzbogacona, wprowadzono moduł do zarządzania boxami. Używając jego możemy zagłębić się w kod i łatwiej modyfikować ustawienia. Można tez zdefiniować meta tagi dla każdego produktu z osobna, co ułatwi jego odnalezienia poprzez wyszukiwarki internetowe. Wprowadzono też możliwość dodania wielu obrazków o rożnych rozmiarach które możemy przypisać do nowego produktu. W aplikacji umieszczono prosty edyor WYSWIYG, co poskutkowało uproszczeniem i ograniczyło konieczność znania kodu html. Jednak wszystkich udogodnień jest znacznie więcej, chociażby znacznie poprawiono bezpieczeństwo naszego sklepu. Do najciekawszych nowych funkcji należy bezpieczne połączenie, administracja poziomami dostępu. Możemy tworzyć rożnych administratorów i przypisywać im rożne prawa dostępu do naszego sklepu. Zaktualizowano też program partnerski dający duże możliwości. Możemy sterować zmiana wyglądu strony poprzez mozliwość zmiany templarek z poziomu witryny. Najnowsze oprogramowanie posiada też możliwość prowadzenia dokładnych statystyk klientów. Mamy też możliwość wyłączane działu sklepu jeśli przyjdzie taka potrzeba. Ciekawą funkcja jest możliwość sprzedażny produktów wirtualnych poprzez kontroler downloadu. Pomocne tez jes zastosowanie sprzedażny wiązanej poprzez zaproponowanie klientowi produktów powiązanych z właśnie kupywanym. Udostępniono teznam możliwość łatwej modyfikacji plików językowych.


Aby poprawnie sklep działał trzeba mu zapewnic kilka opcji takich jak register_globals = On ustawienie tej opcji w ten sposób spowoduje że zmienne przekazywane do skryptu czyli glonbalne, bedzie mozna sie do nich bezpośrednio odwoływać w normalnej postaci czyli $zmienna. Kolejna opcja naszego serwera to file_uploads = On dzięki temu mozemy wysłacpliki binarne metoda POST. Safe_mode = Off wyłączenie tego modułu zwiększy niebezpieczeństwo naszych skryptów, session.auto_start=0, magic_quotes = Off, allow_url_fopen = On przydatne tez by była możliwość wyświetlania błędów czyli display_errors = On.

Jestmozliwośćprzeprowadzenia konwersjibazy danych ze starego OsCommerce do nowej wersji. W tym celu potrzebujemy narzędzie o nazwie CRE Loaded 6.2 SQL Converter. Oprogramowanie te zostało napisane pod serwery na których został zainstalowany Linux. Jeśli nie wprowadziliśmy zmian w strukturze bazy to program powinien ja sprawnie prze konwertować. Podobnie jeśli chcemy nasza bazę przenieść na inny serwer to nie ma z tym najmniejszych problemów zrobimy to przy pomocy phpMyAdmin.

 

Na początku gdy nasz sklep jeszcze jest w fazie testów warto wyłączyć w pliku configute.php szyfrowanie SSL,spowoduje to przyspieszenie działania sklepu, jednak gdy już uruchomimy nasz sklep warto opcję ta ponownie włączyć. Jeśli w naszym sklepie znika polskie znaki warto edytować plik database.php który znajduje się w katalogu includes/functons i zmienić tam kodowanie.

 

Logarytmiczna modulacja kodowo-impulsowa

Sformułowany wyżej cel osiągnąć można przyjmując logarytmiczną skalę kwantowania. Metoda ta nosi nazwę logarytmicznej modulacji kodowo-impulsowej. Zagęszcza ona sygnał wejściowy przed przekazaniem do dalszego przetwarzania i rozszerza po ponownym przyjęciu. Z tego względu określana jest też często metodą dynamiczną. W pełni logarytmiczne kwantowanie jest w praktyce do końca niemożliwe, istnieją jednak dwie metody standardowe, które umożliwiają osiągnięcie efektów zbliżonych - zastosowano je odpowiednio w tzw. kompandorze p-law i kom- pandorze A-Law. Osiągają one wystarczającą, z praktycznego punktu widzenia, stałość stosunku sygnału do szumu i umożliwiają - przy zredukowanej rozdzielczości bitowej - osiągnięcie jakości dźwięku lepszej, niż w przypadku liniowej modulacji PCM. Kodery uzyskujące dyskretny w czasie sygnał analogowy noszą nazwę koderów analogowych , a wspomniane powyżej kodery ukierunkowane na przekaz mowy - noszą nazwę koderów źródłowych lub „vokoderów". Vokoder, z zaproponowanym przez IMA formatem wymiany danych, pracuje z częstotliwością próbkowania 8 kHz, gdyż przy telefonicznym przekazie mowy uwzględnić należy zakres częstotliwości od 200 do 3200 Hz. Jako standard dla A-law-PCM przyjęła się rozdzielczość 8 bitów, gdyż uzyskuje się dzięki niej szybkość transmisji danych: 8 bitów/próbkę x 8000 próbek/s = 64.000 bitów/s (= 64 Kbit/s) - czyli szybkość transmisji danych obowiązującą w ramach bazowego łącza ISDN lub jednego kanału w szerokopasmowym łączu ISDN. Obydwa zaproponowane przez IMA formaty wymiany danych stosowane są obok formatu CCITT G.711 i formatu Audio-CD na komputerach klasy PC i Macintosh - w zbiorach typu WAVE i Apple-AIFF. Chodzi tu o kodowanie sygnału liniową modulacją PCM z rozdzielczością 16 i 8-bitową i częstotliwości próbkowania 44,1 kHZ; 22,05 i 11,025 kHZ, stereo i mono. Zbiory Apple-AIFF mogą być w systemie Windows konwertowane na zbiory WAVE i normalnie wykorzystywane.

Jest to platforma stworzona przez firmę Microsoft, składająca się z dwóch głównych elementów: Maszyny wirtualnej nazywanej Common Language Runtime (CLR), i Biblioteki Klas podstawowych (Base Class Library – BCL). Kompilatory net nie używają kodu maszynowego, a jedynie kod w Języku Pośrednim (Intermediate Language - IL). Jest on podobny do asemblera, ale nie jest zależny od procesora i systemu operacyjnego. Program tworzy się w języku wysokiego poziomu, takim jak C# albo VB.Net, a kompilator przekształca go w IL. Następnie CLR pobiera kod napisany w IL, konwertuje go do kodu maszynowego i następnie uruchamia. Powstały w ten sposób kod nazwany jest kodem zarządzającym, ponieważ CLR kontroluje w nim wszystkie procesy związane z alokacją pamięci, czasem życia obiektów itp. Założenia, które kierowały zespołem programistów tworzących.NET Framework było to, iż inne firmy powinny tworzyć własne wersje dla innych systemów operacyjnych.


Wtedy tylko programy napisane w jednym systemie mogłyby działać na innym. Jest to możliwe, ponieważ Microsoft przedłożył specyfikację CLR komitetowi standaryzującemu ECMA. W grudniu 2001 Infrastruktura Wspólnego Języka (Common Language Infrastrukture – CLI) i Specyfikacja języka C# stały się standardami ECMA. Specyfikację tą można wykorzystać do napisania własnej wersji CLR. Common Language Runtime jest elementem o otwartym źródle. BCL to zestaw klas i funkcji umożliwiających współpracę z systemami operacyjnymi i innymi technologiami, takimi jak: XML, ASP.Net czy ADO.Net. Dzięki tej bibliotece nie trzeba tworzyć programów przy użyciu Win32API. Wykorzystując .Net Framework można tworzyć programy za Pomocą BCL, nie używając Win32API. Dzięki temu, gdy CLR wraz z BCL zostaną przeniesione na inny system operacyjny, czy na inny procesor – będą działały poprawnie. Dla Windowsa CE powstał Compact Framework, co umożliwia np.: napisanie programu w Windows XP a potem uruchamianie go w Windows CE.