Wczoraj Microsoft udostępnił finalną wersję (5.0.2195.6717) Service Pack 4 dla Windowsa 2000. Angielska wersja paczki zajmuje ok. 129 MB i można ją w całości pobrać z serwerów MS lub jako instalotor sieciowy (588 kB). Instalując SP4 możemy mieć pewność, że dokona on wszystkich poprawek z trzech wcześniejszych Service Pack’ów. Ich lista jest dość imponująca bo zawiera ponad 600 bugfix’ów !
Hakerzy z łatwością mogą zaatakować dwie na trzy australijskie firmy poprzez urządzenia peryferyjne (drukarki, faxy) połączone do sieci – ostrzega ekspert od spraw bezpieczeństwa.
Dawid Simpson szef Corporation Vectra powiedział, iż ryzyko wewnętrznego włamania w wielu przypadkach jest bardzo prawdopodobne. Wiele australijskich firm nie jest zabezpieczonych nawet przed najprostszymi atakami sieciowymi. Innym niepokojącym trendem jest wzrost strat odniesionych przez wiele organizacji w skutek włamań do systemów informatycznych. Corporation Vectra – firma specjalizująca się w zabezpieczeniach systemów w ciągu ubiegłych dwóch lat przedsięwzięła środki, aby określić podatność na włamania – w biznesie – w Australi oraz Azji.
Więcej informacji jest dostępnych na stronie news.com.au.
Message Labs informuje by strzec się nowych wirusów Auric.E – mm i NoFear.B – mm. Auric czyni program antywirusowy niezdolnym do odparcia wirusa. Wysyła się poprzez poczte e-mail i programy typu p2p. NoFear.B – mm wirus przez Message Labs został przejęty cztery razy. NoFear jest robakiem który wysyła swoją kopie do wszystkich osób znajdujących się w książce adresowej klienta poczty. Message Labs informuje że NoFear jest coraz częsciej używany przez spamerów. Oba wirusy zaliczają się do kategorii „niskiego ryzyka”.
Brytyjscy badacze z Uniwersytetu Oksfordzkiego wyliczyli, że oprogramowanie oparte na otwartym kodzie źródłowym rozwija się szybciej, niż aplikacje chronione prawem autorskim.
Damien Challet i Yann Le Du stworzyli teoretyczny model procesu wykrywania błędów w kodzie programu. Na tej podstawie obliczyli czas niezbędny dla „zdebuggowania” programów Open Source oraz produkcji o zamkniętym kodzie źródłowym. Wyniki analizy nie powinny zaskakiwać. Twórcy oprogramowania o zamkniętym kodzie muszą zatrudniać dużą liczbę osób analizujących skargi użytkowników, programistów o bardzo wysokich kwalifikacjach oraz więcej beta-testerów, aby uzyskać wyniki zbliżone do tych, jakie w tym samym czasie uzyskują programy Open Source. Przy dysponowaniu takimi samymi zasobami ludzkimi, program o otwartym kodzie źródłowym zawsze będzie oczyszczony z błedów znacznie szybciej, niż aplikacja prawnie chroniona przed modyfikacjami.
Te różnice to przede wszystkim konsekwencja faktu, że poprawianie programu o otwartym kodzie jest procesem ciągłym – użytkownicy nieustannie aktualizują swoje wersje, z kolei programiści na bieżąco wprowadzają poprawki. W wypadku aplikacji o zamkniętym kodzie aktualizacja kodu dokonuje się etapami. To rozwiązanie znacznie mniej efektywne – ilość informacji o błędach spada po każdej poprawce i zanim pojawią się nowe informacje o pomyłkach, upływa sporo czasu. A im dłuższa jest przerwa pomiędzy publikacją kolejnych wersji programu, tym wolniejszy proces usuwania błędów.
Źródło informacji: Nature
Hakerstwo jest przewodnim tematem zeszytu CHIP Special Linux (Lato 2003). W dwóch artykułach omówiono pojęcia hakera, crackera, lamera itp. W kolejnych tekstach scharakteryzowano różne metody ataku i obrony, omówiono kwestię profesjonalnego audytu, zaprezentowano pokrótce służącą do naprawy skompromitowanego systemu dystrybucję F.I.R.E. i pokazano dostępne w Linuksie sposoby śledzenia pracowników.
Artykuł – Na pasówkę – prowadzi Czytelnika za rękę przez grę NGSEC’s Security Game. W dwóch materiałach opisano popularne techniki kryptograficzne oraz ich stosowanie. Dział zamyka omówienie łaty na jądro Linux Intrusion Detection System.
Poza tym w zeszycie letnim znalazło się między innymi wprowadzenie do Linuksa (na przykładzie KDE i GNOME-a), dwa teksty rzetelnie omawiające kompilowanie jąder nowej generacji, artykuły o oprogramowaniu biurowym oraz narzędziach do nagrywania płyt CD, materiał o instalowaniu i uszczelnianiu Slackware’a, którego anglojęzyczny pierwodruk ukazał się w 91. numerze Linux Gazette oraz na naszym serwisie w dziale Linux
Do zeszytu zostały załączone dystrybucje Knoppix 3.2 i CollegeLinux 2.3.
Źródło: Redakcja CHIP Special
Wydatki na badania i rozwój nanotechnologii przekroczą w tym roku 3 mld USD – wynika z raportu opublikowanego przez firmę Lux Capital.
Nanotechnologia to nauka o tworzeniu produktów z komponentów, których wielkość nie przekracza 100 nanometrów. Potencjał nanotechnologii związany jest nie tylko z miniaturyzacją, ale również ze zmianą właściwości fizycznych, jakiej niektóre materiały ulegają przy tym rzędzie wielkości. I tak np. obecnie stosowane przewodniki przy tak niewielkich wymiarach zachowują się jak izolatory. Łączenie różnych typów takich molekuł umożliwia tworzenie materiałów o unikalnych właściwościach, zoptymalizowanych pod kątem specyficznych zadań.
Od roku 2000 – kiedy to ówczesny prezydent USA, Bill Clinton, zapowiedział uruchomienie Narodowej Inicjatywy Nanotechnologicznej – rząd amerykański wydał na projekty nanotechnologiczne już 2 mld USD.
Z kolei Unia Europejska przewiduje, że jej wydatki na nanotechnologię w latach 2002-2006 przekroczą 1 mld USD. Szanse, jakie daje nowa technologia, chcą wykorzystać także kraje azjatyckie. Japonia zwiększyła wydatki na nanotechnologię ze 120 mln USD w roku 1997 do 750 mln USD w roku 2002.
Według raportu, do roku 2010 blisko połowa światowych fizyków będzie pracować w Azji. Oczywiście swój udział w rozwoju nanotechnologii mają też prywatne firmy – liczbę spółek zaangażowanych w prace tego typu szacuje się na przeszło 700. Od roku 1999 wydały one na prace nad nanotechnologią blisko 900 mln USD, z tego 386 mln USD w roku 2002.
Boom nanotechnologiczny nie będzie jednak przypominać eksplozji popularności firm internetowych – ze względu na wymagane nakłady finansowe, nanotechnologię zdominują duże firmy działające już dziś w dziedzinie chemii i elektroniki. Ponadto wizja wdrożenia rozwiązań nanotechnologicznych do masowej produkcji wciąż jest odległa przynajmniej o 10-20 lat.
Źródło informacji: The Inquirer
Elektrownie, mosty i budynki nie są jedynymi punktami strategicznymi dla bezpieczeństwa narodowego. Obecnie coraz bardziej decydujące stają się sieci teleinformatyczne. Program „Infragard” powstał przy współpracy FBI i 8.300 przedsiębiorstwami, by podzielić się informacją o zarówno cyber jak i fizycznych zagrożeniach.
W poniedziałek eksperci z całych Stanów Zjednoczonych zebrali się by uczestniczyć w trzydniowej konferencji odbywającej się w Waszyngtonie. „To będzie cały nowy biznesowy obszar wzrostu” – powiedział Paul Bracken, technik informacyjny i ekspert bezpieczeństwa w Yale School Management.
Program „Infragard” rozpoczął się w 1996 roku i rozrastał się powoli jednak po atakach terrorystycznych z 11 września 2001 roku projekt przybrał o wiele wyższy priorytet. Brett Hovington, koordynator FBI programu Infragard powiedział: „FBI też musi ochronić sieci komputerowe i systemy telekomunikacyjne, które tworzą nowoczesną elektroniczną infrastrukturę narodu”. Hovington poinformował, iż banki są szczególnie narażone i powinny przedsięwziąć wszystkie kroki, aby ochronić swoje systemy informatyczne przed atakami hakerów lub terrorystów. Program ma za zadanie alarmować odpowiednie służby przed planowanymi atakami terrorystycznymi.
Cetin Koc z uniwersytetu w Oregon powiedział: „Główne sieci komputerowe są stosunkowo pewne – jednak są tak pewne jak ich najsłabsze ogniwo”.
FBI i przedsiębiorstwa podkreślają że program Infragard jest dobrowolny.
Źródło: CTV.ca
Jak informuje serwis CNET.News lista TOP 500 została zaktualizowana. Prym w dalszym ciągu wiedzie maszyna firmy NEC – Earth Simulator Center. Swoją pozycje na liście podniosły firmy IBM oraz Intel. IBM powiększył swoją liste sytemów z 139 do 158. IBM jednocześnie prawie dogonił w ilości systemów na liście firme Hewlett-Packard który posiada 159 systemów.
Firma Intel zwiększyła swoją ilość superkomputerów z 54 do 119. IBM w chwili obecnej znajduje się na 4 miejscu wyposażony w superkomputer o mocy obliczeniowej 7.304TFlops. 2 miejsce na liście zajmuje system firmy HP który służy do symulowania wybuchów jądrowych w laboratorium w Los Alamos o mocy obliczeniowej 13.88TFlops. Kolejne miejsce na liście zajmuje system firmy LinuxNetwork który jest wyposażony w 2304 procesory klasy Xeon (2,4Ghz). Jego moc obliczeniowa to 7.634TFlops.
Pozostałe superkomputery można znaleść na stronie TOP 500
Więcej informacji jest dostępnych na stronie cNET’u.
Zobacz również:
Najszybszy komputer świata
Superkomputer wagi ciężkiej
Aktywny Cray
Trylion operacji w ciągu sekundy już w 2010 roku ?
Nowe superkomputery IBM-a
Crash-testy Chryslera na Linuxie
Superkomputer z Opteronami
Atomowy Linux
Chiny mają swój superkomputer
8.3 teraflopa pod Linuxem !
The Earth Simulator
Najsilniejszy komputer w Europie
IBM prezentuje serwer uniksowy Regatta
Szkoci budują myślące superkomputery
Rosjanie zbudowali myślący komputer
Ukazała się nowa wersja przeglądarki Mozilla oznaczona numerkiem 1.4 RC3. O wprowadzonych usprawnieniach można poczytać pod tym adresem, zaś stąd, można pobrać nową wersje.
