Chú trọng đến tiềm năng dài hạn thay vì nổi đình nổi đám, các công nghệ mới được chọn có thể chưa phổ biến nhưng có tầm ảnh hưởng lớn, có khả năng giúp giảm chi phí, thay đổi cách chúng ta làm việc và mở ra những chân trời mới.

10. Lập danh sách trắng

Việc đuổi theo dữ liệu nhận dạng virus đang trở nên bất cập. Ví dụ, trong năm 2008 Symantec đã đưa ra dữ liệu nhận dạng virus nhiều hơn dữ liệu mà hãng đã đưa ra trong 17 năm trước đó. Không chỉ virus, sâu và mã độc ngày càng nhiều hơn, mà số có khả năng biến dạng hay tự che đậy dùng kỹ thuật mã hóa để tránh bị phát hiện cũng tăng. Giải pháp lập danh sách trắng chọn hướng tiếp cận dựa trên các quy tắc an toàn tạo sẵn.

Giải pháp lập danh sách trắng (hay danh sách an toàn – whitelisting) tạo ảnh hệ thống máy tính hay máy chủ sạch (không có phần mềm mã độc), sau đó chạy phần mềm chuyên dụng để nhận diện các file một cách duy nhất dùng một hay nhiều hàm băm mã hóa. Kể từ đó, trình giám sát trên các hệ thống được quản lý sẽ bật cờ cảnh báo khi xuất hiện chương trình nào đó không có trong danh sách băm (hash) hoặc ngăn không cho thực thi. Đa phần các máy tính trong doanh nghiệp có chung một ảnh hệ thống chuẩn, vì vậy việc lập danh sách trắng có thể là một giải pháp hết sức hiệu quả để khóa chặn an toàn.

Một số phần mềm lập danh sách trắng có thể nhận diện và chặn nhiều loại file chứ không chỉ file thực thi, bao gồm các script (mã lệnh kịch bản) và macro, thậm chí có thể bảo vệ chống ghi file văn bản hay file cấu hình. Tính năng sau hữu ích cho việc ghi nhận những thay đổi không được phép, chẳng hạn như các thay đổi mà nhiều malware thực hiện với file Host.

Việc lập danh sách trắng yêu cầu thay đổi văn hóa sử dụng máy tính. Trong nhiều doanh nghiệp hiện nay, người dùng vẫn còn có quyền nào đó với phần mềm mà họ chạy trên máy tính để bàn hay MTXT của riêng mình. Nhưng do các phần mềm mã độc mới tăng chóng mặt và ngày càng xảo quyệt, và sự tham gia ngày càng nhiều của các tổ chức tội phạm trong các cuộc tấn công, việc lập danh sách trắng có lẽ là vũ khí thích hợp nhất cho trận chiến bảo mật khó khăn.

9. Phát triển ứng dụng di động đa hệ

Cơn sốt iPhone đã mang nhiều việc đến cho các lập trình viên ngoài sự thôi thúc mô phỏng các chức năng bên ngoài với những ứng dụng như iFart. Kỹ năng đảm bảo nhất là thành thạo Objective C, một ngôn ngữ được giới thiệu đầu tiên với máy tính NeXT của Steve Jobs vào năm 1988.

Nếu bạn là lập trình viên Java, việc học Objective C đồng nghĩa phải học cách tự quản lý bộ nhớ. Nếu là dân JavaScript, bạn phải “nuốt trôi” khái niệm trình biên dịch. Không có chọn lựa nào khác nếu bạn muốn viết ứng dụng có thể được hàng triệu người dùng iPhone tải về.

Tuy nhiên, thời mà iPhone là cuộc chơi hấp dẫn duy nhất nhanh chóng qua đi khi các nhà phát triển tìm kiếm sự cạnh tranh. Các điện thoại Android và BlackBerry dùng ngôn ngữ Java. Symbian OS của Nokia chạy nhiều ngôn ngữ, bao gồm nhiều phiên bản C và C++. Số đông nhà phát triển quan sát “món lẩu” này và nhìn thấy một điểm chung: tất cả điện thoại đều có trình duyệt web sử dụng cùng ngôn ngữ HTML, JavaScript và CSS – các ngôn ngữ mà mọi nhà phát triển web đều biết (và nhiều nhà phát triển khác cũng biết).

Một số bộ công cụ phát triển còn vượt qua trình duyệt, cho phép truy cập đến thư viện hàm bên dưới. Titanium Architecture của Appcelerator, PhoneGap của Nitobi và LiquidGear của PhoneGap tạo ra ứng dụng mà bề ngoài trông như được viết bằng ngôn ngữ máy, nhưng thực chất dựa trên trình duyệt nhúng có thể chạy trên các nền tảng phổ biến. Phần lớn tác vụ quan trọng được viết bằng JavaScript chạy trong trình duyệt nhúng. Ứng dụng này có thể truy cập gia tốc kế và GPS mặc dù chỉ dùng JavaScript.

Những công cụ khác dùng những ngôn ngữ phổ biến như Ruby. Chẳng hạn, Rhomobile nhúng trình biên dịch Ruby và máy chủ web hoàn chỉnh trong ứng dụng để bạn có thể viết mọi thứ bằng Ruby, giống như xây dựng một website bằng Ruby. Ứng dụng này có thể cũng chạy trên các nền tảng phổ biến.

Tất cả các giải pháp trên tốt đáng kinh ngạc – nếu bạn không kỳ vọng tốc độ cực nhanh hay sự hoàn hảo. Các nhà phát triển game có thể dùng gia tốc kế với ứng dụng dạng này, nhưng chỉ để xây dựng các game 2D đơn giản không đòi hỏi truy cập đến các lớp sâu bên dưới của phần cứng video. Có một vấn đề đó là phông chữ (font) và bố cục giao diện đôi khi hơi khác nhau giữa các nền tảng. Nhưng nếu các yêu cầu đơn giản và bạn đã biết các ngôn ngữ phát triển web, các giải pháp này dễ hơn nhiều so với việc học Objective C.

Đối với doanh nghiệp, việc phát triển ứng dụng đa hệ khắc phục được một rào cản trong việc phát triển và triển khai ứng dụng di động dùng trong nội bộ: Khó bắt buộc nhân viên sử dụng cùng một loại smartphone, và ngay cả khi có thể bắt buộc, việc lập trình các ứng dụng cho một nền tảng cụ thể làm doanh nghiệp bị mắc kẹt. Với việc phát triển ứng dụng đa hệ, bạn có thể viết một lần – mà không phải biết những kiến trúc của một nền tảng cụ thể – và chạy nó trên nhiều thiết bị. Vậy là việc triển khai rộng rãi các ứng dụng doanh nghiệp di động có thể trở thành hiện thực.

8. Tiết kiệm điện cho phần cứng

Tất cả chúng ta đều biết câu “khẩu hiệu”: Cứu hành tinh và tiết kiệm tiền bằng cách giảm tiêu thụ điện. Các công nghệ để thực hiện mục tiêu kép đó đã tìm ra cách đi vào các máy chủ, máy tính để bàn và các phần cứng khác, nhưng trong một số trường hợp, những lợi ích chỉ có được khi có phần mềm hỗ trợ.

Các bộ nguồn hiệu quả hơn cùng với ổ đĩa cứng có khả năng giảm tốc độ quay hay tự tắt khi không dùng đến đang trở nên phổ biến. Nhưng để đưa các nhân và bo mạch chủ không hoạt động hay các thành phần khác sang trạng thái “ngủ”, các bộ xử lý (BXL) đa nhân nói chung cần nhận được lệnh từ cấp hệ điều hành hay ứng dụng.

Bộ nguồn là phương tiện đơn giản nhất để tiết kiệm điện. Nó không cần phần mềm hỗ trợ và thực hiện tiết kiệm kép: Tiêu thụ ít điện năng khi chuyển đổi AC sang DC và sinh ra ít nhiệt – giúp giảm điện năng cần để làm lạnh. Chương trình chứng chỉ 80 Plus, được tài trợ bởi liên minh nhiều công ty điện, khuyến khích các nhà sản xuất tạo ra các bộ nguồn đạt hiệu suất ít nhất 80%, một bước tiến so với các bộ nguồn cũ chỉ đạt dưới 50% – nghĩa là chỉ 50% năng lượng đi đến bo mạch chủ, 50% còn lại thường phung phí dưới dạng nhiệt.

Nhiều hãng sản xuất thiết bị lưu trữ đưa ra các ổ đĩa có thể quay chậm lại hay tắt nguồn khi không dùng đến. Hầu hết các hệ thống được bán ra hiện nay chỉ giới hạn ở tính năng làm ổ đĩa quay chậm đi, vì thời gian cần để kích hoạt hay tắt ổ đĩa dài hơn thời gian cho phép của hầu hết ứng dụng. Nói chung có 3 mức: Chậm, chậm hơn và dừng hẳn, mức sau tiết kiệm điện nhiều hơn và yêu cầu nhiều thời gian hơn để trở lại tính năng đầy đủ. Trạng thái đầu có thể hồi phục trong 1-2 giây và trạng thái thứ 2 dưới 30 giây, trong khi hồi phục từ trạng thái tắt nguồn có thể mất đến 2 phút. Trạng thái sau cùng gây vấn đề với hầu hết ứng dụng, vì vậy hầu hết các hãng không dùng.

Các BXL mới nhất cho phép “dừng” nhân, tắt nguồn các nhân không cần đến khi làm việc ít. Tính năng này được hỗ trợ trong Windows 7 và Windows Server 2008 R2. Nó rất có ích trong các server không hoạt động liên tục hay ít dùng ngoài giờ làm việc. BXL 2, 4, 6 hay 8 nhân có thể tắt hết, trừ một nhân để phục vụ các yêu cầu, nếu tải trên một nhân vượt quá giới hạn định trước thì BXL sẽ trở về trạng thái hoạt động đầy đủ.

Các bo mạch chủ và thiết bị gắn thêm như card mạng cũng đang được bổ sung khả năng tắt nguồn các thành phần khi không dùng đến. Ví dụ, một số bo mạch chủ, đặc biệt trên các MTXT, hỗ trợ 2 hệ thống video: Một tích hợp trên bo mạch chủ và một card rời. Thành phần tích hợp tiêu thụ ít điện năng hơn, trong khi card rời cho hiệu suất cao hơn. Bo mạch chủ có thể chuyển qua lại giữa 2 hệ thống video khi cần thiết để tiết kiệm điện hoặc đạt hiệu suất cao.

Card mạng có thể tắt nguồn khi không dùng mạng, và các thành phần khác cũng được bổ sung tính năng tương tự. Tuy nhiên các tính năng này chỉ phát huy tác dụng khi được hệ điều hành và, trong một số trường hợp, các ứng dụng riêng biệt hỗ trợ. Có card mạng có thể tự tắt nguồn thì thật tuyệt, nhưng bạn cần hệ điều hành có thể kích hoạt nó hoạt động trở lại.

7. Chip đa nhân

Các nhà sản xuất bộ xử lý (BXL) đã đụng bức tường tốc độ đồng hồ. Mỗi xung nhịp đồng hồ tăng thêm đều yêu cầu thêm nhiều điện năng.

Vì vậy các nhà sản xuất đã chuyển từ xa lộ một làn sang cao tốc nhiều làn – nghĩa là, từ một nhân tốc độ cao thành nhiều nhân tốc độ thấp hơn nhưng có khả năng thực thi song song. Tốc độ vượt ngưỡng không còn “thiêng” trong thế giới điện toán. Thay vì vậy, giờ là hiệu suất tổng.

Các chip đa nhân tiêu thụ ít điện năng hơn, sinh ra ít nhiệt hơn nhưng vẫn hoàn tất công việc hiệu quả. Trên server, đây chính là điều mà giới CNTT muốn. Ví dụ, hiện nay một BXL Intel Nehalem có 4 nhân, mỗi nhân có thể chạy 2 luồng đồng thời, vì vậy hệ thống 4 BXL (không đắt lắm) có thể chạy 32 luồng đồng thời. Cách đây 5 năm, chỉ có mainframe và server cao cấp mới có khả năng đó.

Chip đa nhân có ít ảnh hưởng hơn trên môi trường máy tính để bàn, do thiếu các ứng dụng có thể khai thác tốt các tài nguyên một cách song song, chưa kể thiếu các lập trình viên có kỹ năng viết phần mềm trên máy tính để bàn chạy đa luồng. Tuy nhiên điều đó đang thay đổi, đặc biệt trong các ứng dụng máy trạm và ứng dụng đồ họa chuyên nghiệp.

Thập niên tới sẽ chứng kiến sự bùng nổ nhân trong các chip xử lý. Kỷ nguyên hiện nay được phong là “nhiều nhân” (một thuật ngữ ám chỉ nhiều hơn 8 nhân) sắp bước qua. Mới đây Intel đã giới thiệu mẫu chip đang phát triển thuộc dự án Tera-scale chứa đến 80 nhân có khả năng xử lý một teraflop (một ngàn tỷ phép tính mỗi giây) chỉ dùng 62 watt. (Lưu ý, một hệ thống có khả năng xử lý 18 teraflop đủ tiêu chuẩn đứng trong danh sách Top 500 siêu máy tính).

Các nhà sản xuất BXL khác họ x86 cũng tham gia cuộc đua. Ví dụ, hãng Tilera hiện có chip 16 nhân và sắp tung ra “quái vật” 100 nhân vào năm 2010. Giới CNTT sẽ làm gì với nhiều nhân như vậy? Trong trường hợp Tilera, các chip này được dùng trong thiết bị hội nghị video cho phép phát nhiều luồng video đồng thời với chất lượng HD. Với Intel, nhiều nhân cho phép công ty thực hiện các dạng tính toán mới trên một BXL, như thực hiện đồ họa ngay trong CPU. Trên server, nhiều nhân sẽ cho khả năng mở rộng cực lớn và cung cấp các nền tảng có thể dễ dàng chạy hàng trăm máy ảo với tốc độ cao.

Rõ ràng kỷ nguyên nhiều nhân – mà chắc chắn sẽ phát triển lên kỷ nguyên ngàn và triệu nhân – sẽ cho phép chúng ta thực hiện các tác vụ quy mô lớn dễ dàng và ít tốn kém, đồng thời cho phép siêu tính toán trên các máy tính không đắt tiền.

6. Ổ cứng thể rắn (SSD)

SSD (Solid-State Drive) đã có cả chục năm nay, nhưng mãi đến gần đây chúng ta mới chứng kiến sự bùng nổ các sản phẩm mới và sự giảm giá dữ dội. Trước đây, ổ SSD chủ yếu phục vụ cho nhu cầu tốc độ thật cao. Hiện nay SSD được sử dụng rộng rãi hơn, dùng như bộ nhớ đệm bên ngoài để cải thiện tốc độ cho nhiều ứng dụng. Ổ SSD vẫn còn mắc hơn ổ đĩa thường nhiều, nhưng rẻ hơn bộ nhớ bên trong máy chủ.

So với ổ cứng, SSD không chỉ nhanh hơn cả về tốc độ đọc và ghi (không hẳn đúng với mọi loại SSD) mà còn cho tốc độ truyền nhanh hơn và tiêu thụ điện ít hơn. Tuy nhiên SSD có giới hạn về tuổi thọ, mỗi ô nhớ trong SSD chỉ có thể ghi một số lần hạn chế.

Có 2 loại SSD: Ô nhớ 1 cấp (SLC – single-level cell) và ô nhớ nhiều cấp (MLC – multilevel cell). Loại SLC nhanh hơn loại MLC và có tuổi thọ lớn hơn 10 lần (và giá mắc hơn nhiều). Kéo dài khả năng ghi từng là rào cản lớn với các ổ SSD, nhưng nhờ tăng các đặc tính kỹ thuật và sử dụng thông minh hơn bộ nhớ đệm DRAM tích hợp bên trong làm cho giải pháp đáng giá này hấp dẫn hơn. Một số nhà sản xuất tăng tuổi thọ cho ổ SSD bằng cách thêm dung lượng – nghĩa là dung lượng thực lớn hơn dung lượng công bố, và dùng thuật toán phân rải dữ liệu trên các ô nhớ thêm.

Nhưng vấn đề hấp dẫn nhất là giá. Giá ổ SSD 32GB đã giảm khoảng 10 lần trong 5 năm qua, dù vậy vẫn còn đắt gấp 46 lần so với ổ SATA tính trên mỗi gigabyte. Khi các giải pháp mới cho vấn đề tuổi thọ đi từ phòng thí nghiệm ra thị trường, việc sử dụng SSD hứa hẹn sẽ phổ biến hơn.

5. Cơ sở dữ liệu phi SQL

Dữ liệu giờ đây hiện diện khắp nơi. Và thời đại mà “SQL” và “cơ sở dữ liệu” (CSDL) có thể dùng lẫn lộn sắp qua, một phần vì các CSDL quan hệ kiểu cũ “hụt hơi” trước sự tràn ngập dữ liệu từ các ứng dụng web 2.0.
Các website “hot” đang tạo ra hàng terabyte (ngàn gigabyte) dữ liệu ít theo dạng hàng và cột số như từ phòng kế toán. Thay vì vậy, chi tiết lưu lượng được lưu trữ trong các file “trơn” và được phân tích tự động theo lịch lúc đêm khuya.

Để “thọc” vào dữ liệu này cần có phương thức tìm kiếm và đối chiếu dữ liệu, CSDL quan hệ có thể làm được việc này nhưng nó quá cồng kềnh với các cơ chế đảm bảo tính nhất quán dữ liệu ngay cả trong những tình huống xấu nhất.
Tất nhiên, nếu đầu tư đủ công sức, bạn có thể làm cho mọi thứ phù hợp với CSDL quan hệ, nhưng điều đó có nghĩa bạn phải trả giá cho tất cả các cơ chế khóa và hồi phục phức tạp được phát triển cho bộ phận kế toán để theo dõi dòng tiền. Trừ phi vấn đề đòi hỏi tất cả tính năng của một CSDL hàng đầu, còn thì không cần đầu tư quá mức như vậy, nếu không bạn phải chấp nhận hệ quả hiệu suất của nó.

Giải pháp? Nới lỏng các ràng buộc và đi theo cách tiếp cận mới: NoSQL. CSDL NoSQL cơ bản là các cặp khóa/giá trị đơn giản kết hợp với nhau thành một khóa với một lô thuộc tính. Không hề có bảng đầy các cột trống và không có vấn đề thêm các giá trị hay khóa đặc biệt mới cho mỗi mục. Tính năng “giao dịch” (transaction) có thể có hoặc không.

Hiện có các giải pháp NoSQL như Project Voldermort, Cassandra, Dynamite, HBASE, Hypertable, CouchDB và MongoDB, và ngày càng xuất hiện nhiều hơn. Mỗi giải pháp dùng cách thức hơi khác nhau để truy xuất dữ liệu. Chẳng hạn, CouchDB cho bạn viết truy vấn như hàm JavaScript. MongoDB có tính năng phân mảnh – CSDL lớn được phân thành từng mảnh nằm trên nhiều server.

Cặp khóa/giá trị đơn giản chỉ là mở đầu. Chẳng hạn, Neo4J cung cấp CSDL đồ thị dùng câu truy vấn thật ra là thủ tục để tìm khắp mạng. Cốt lõi vấn đề là chỉ giữ các tính năng cần thiết, bỏ những tính năng không cần.

Tất cả giải pháp trên là nỗ lực mới nhất nhằm tìm lại tốc độ mà có thể có được bằng cách nới lỏng các yêu cầu. Hy vọng sẽ có một kỷ nguyên xử lý dữ liệu mới không giống như những gì chúng ta biết trước đây.

4. Ảo hóa nhập/xuất

Ảo hóa ngõ nhập/xuất (Input/Output) giải quyết một vấn đề gây trở ngại cho các máy chủ chạy phần mềm ảo hóa như VMware hay Microsoft Hyper-V. Khi có nhiều máy ảo chạy trên một server, ngõ nhập/xuất trở thành nút thắt cổ chai, cả cho việc liên lạc máy ảo với mạng và kết nối các máy ảo với thiết bị lưu trữ bên dưới. Ảo hóa I/O không chỉ làm cho việc cấp phát băng thông khắp các máy ảo trên một server dễ dàng hơn, mà còn mở đường cho việc quản lý động các kết nối giữa các server vật lý và các thiết bị lưu trữ.

Chúng ta hãy bắt đầu với một server. Ví dụ, VMware khuyến cáo cấp phát một cổng Ethernet gigabit cho mỗi máy ảo. Một server chạy 16 máy ảo vì vậy sẽ cần 4 card mạng Ethernet gigabit 4 cổng, cộng với các card mạng (iSCSI, SCSI hay Fibre Channel) bổ sung cho thiết bị lưu trữ. Nhiều server không có đủ khe cắm cho nhiều card như vậy, ngay cả khi có đủ khả năng làm mát. Và nhiều khi mỗi máy chủ có hơn 16 máy ảo, lưu ý, các server dùng BXL Intel và AMD hiện nay thường có từ 8 đến 24 nhân với hàng trăm gigabyte bộ nhớ. Mức độ tích hợp có thể còn cao hơn.

Để giải quyết vấn đề, các hãng cung cấp giải pháp ảo hóa I/O như Xsigo và Cisco đã đi đến giải pháp dùng một kết nối tốc độ cao thay vì nhiều kết nối Ethernet và Fibre Channel. Một card mạng cho mỗi server khi đó có thể cung cấp nhiều kết nối ảo. Card mạng có thể là card Ethernet hay Infiband 10 gigabit chuẩn có trình điều khiển chạy trên HĐH hỗ trợ xử lý một kết nối tốc độ cao như nhiều kết nối. Vì sử dụng chung một đường kết nối (thật), hệ thống có thể cấp băng thông cho các kết nối ảo theo nhu cầu, cung cấp hiệu suất tối đa.

Tiêu biểu, mỗi server có một card mạng, một sợi cáp nối đến thiết bị (như chuyển mạch) cung cấp cổng kết nối đến cả thiết bị lưu trữ và các mạng khác. Giải pháp này giúp đơn giản hóa việc đi cáp trung tâm dữ liệu, cũng như việc cài đặt từng server. Nó cũng làm dễ dàng tác vụ chuyển card mạng đến hệ thống khác nếu server bị lỗi. Trong các giải pháp như Cisco UCS, ảo hóa I/O cho phép việc cung ứng, định lại mục đích và chống lỗi server cực kỳ linh hoạt và có thể tự động hoàn toàn, vì nó được kiểm soát hoàn toàn bằng phần mềm. Hơn nữa, vì hệ thống ảo hóa I/O có thể thiết lập nhiều kết nối Ethernet hoặc Fibre Channel chạy ở nhiều tốc độ khác nhau, băng thông thích hợp có thể được dành cho các yêu cầu di dời máy ảo hay công việc “nặng tải” khác.

Việc ảo hóa I/O yêu cầu trình điều khiển (driver) hỗ trợ HĐH. Các HĐH và nền tảng ảo hóa phổ biến được hỗ trợ, gồm VMware ESX và Windows 2008 Hyper-V, một số phiên bản Linux và Xen hay các nền tảng ảo hóa nguồn mở khác. Nếu bạn dùng HĐH được hỗ trợ, giải pháp ảo hóa I/O có thể giúp cho việc vận hành trung tâm dữ liệu lớn đơn giản hơn và ít tốn kém hơn nhiều, đặc biệt khi năng lực xử lý và hỗ trợ bộ nhớ tăng cho phép server kiểm soát số lượng máy ảo ngày càng lớn.

3. Khử dữ liệu trùng

Dữ liệu là yếu tố quyết định đến sự thành công của mọi doanh nghiệp. Vấn đề là làm gì với dữ liệu. Theo IDC, dữ liệu trong doanh nghiệp tăng gấp đôi mỗi 18 tháng, tạo sức ép lên các hệ thống lưu trữ. Nguyên nhân của việc phình to này thường bị đổ cho các quy định lưu trữ tài liệu. Nhưng đáng kể hơn đó là không có ngày hết hạn. Việc phân tích dữ liệu trong nhiều năm (đã qua) cho phép phát hiện các xu hướng, tạo các dự báo, dự đoán hành vi khách hàng và nhiều thứ khác.

Chắc chắn phải có cách giảm dung lượng lưu trữ khổng lồ của tất cả dữ liệu mà không hy sinh thông tin hữu ích. Đó chính là công nghệ khử dữ liệu trùng.

Mọi mạng đều có hàng khối dữ liệu trùng, từ các bộ lưu cho hàng ngàn bản sao sổ tay nhân viên đến các file đính kèm giống nhau ở trên cùng máy chủ email. Ý tưởng cơ bản của việc khử trùng dữ liệu là định vị các bản sao trùng của cùng một file và loại bỏ tất cả trừ một bản gốc. Mỗi bản trùng được thay bằng “con trỏ” chỉ đến bản gốc. Khi người dùng yêu cầu file, “con trỏ” sẽ chuyển đến file gốc và người dùng không hề nhận biết sự khác biệt.

Có nhiều dạng khử trùng, từ đối chiếu file đơn giản đến cao cấp hơn là khảo sát khối dữ liệu hay byte bên trong file. Nguyên lý cơ bản, phần mềm khử trùng phân tích một mẩu dữ liệu, có thể là một chuỗi bit hay toàn bộ file. Một thuật toán xử lý mẩu này để tạo ra một số băm (hash) duy nhất. Nếu số này đã có trong bảng chỉ mục, điều đó có nghĩa mẩu dữ liệu đó là một bản sao và không cần lưu nữa. Nếu không, số băm này được đưa vào bảng chỉ mục.

Việc khử trùng không chỉ áp dụng cho dữ liệu lưu trữ trong hệ thống file hay email. Lợi ích trong các tình huống lưu trữ dự phòng, đặc biệt hồi phục sau thảm họa, cũng rất lớn. Dữ liệu thay đổi hàng ngày không nhiều. Khi truyền một bản lưu đến một trung tâm dữ liệu khác trên mạng diện rộng (WAN), không cần chuyển đúng từng byte mỗi đêm. Áp dụng giải pháp khử trùng giúp giảm dung lượng lưu trữ đáng kể. Mức sử dụng băng thông mạng giảm xuống và khả năng khôi phục sau thảm họa tăng lên.

Ngày càng có nhiều sản phẩm sao lưu tích hợp giải pháp khử dữ liệu trùng, và các thiết bị khử trùng ngày càng hoàn thiện. Việc khử trùng hệ thống file cũng đang phát triển. Chỉ có vài công nghệ có ảnh hưởng lớn hơn khử trùng dữ liệu trong việc giải quyết các vấn đề ứng dụng thực tế CNTT.

2. Ảo hóa desktop

Ảo hóa môi trường làm việc trên máy tính để bàn (desktop) dường như đã hiện diện ở dạng này hay dạng khác lâu nay. Thậm chí có thể nói nó đã xuất hiện từ giữa thập niên 1990. Tuy nhiên hiện nay có nhiều giải pháp ảo hóa desktop mà chúng ta khó có thể hình dung chỉ cách đây vài năm. Còn một dấu ấn khác vừa xuất hiện: công nghệ mới nổi lên dưới cái tên desktop hypervisor.

Dẫn đầu trong lĩnh vực này lâu nay, XenApp và XenDesktop của Citrix Systems là những hình mẫu về cách ảo hóa desktop với một hệ thống máy chủ desktop trong mỗi trung tâm dữ liệu và một hệ thống đầu cuối nhỏ gọn trên mỗi máy tính người dùng.

“Siêu desktop” (desktop hypervisor) là công nghệ ảo hóa desktop mới nhất. Có thể hình dung mỗi desktop chạy trong lớp ảo hóa gần như riêng biệt mô phỏng phần cứng cơ sở thành bất kỳ máy ảo nào bạn muốn để “đẩy” đến người dùng, ở đó nó được quản lý tập trung, đồng bộ với ảnh trên server và dễ dàng thay thế khi có trục trặc. Citrix không độc quyền ý tưởng này, VMware cũng đang phát triển một giải pháp tương tự, và cả hai hứa hẹn đưa ra thị trường trong năm 2010.

Dù giải pháp nào, hiện có hay sắp có, việc quản lý desktop trong môi trường doanh nghiệp vẫn là một trong những thách thức lớn. Trong khi mô hình trung tâm dữ liệu đã thay đổi một cách có hệ thống trong 20 năm qua, mô hình desktop lại không thay đổi. Ở hầu hết mọi nơi, nó vẫn là một hộp to đùng cho mỗi người dùng, với mớ công cụ quản lý xếp lớp để bảo vệ người dùng và bảo vệ mạng.

Liệu có công nghệ ảo hóa desktop nào thích hợp cho doanh nghiệp của bạn mà hoàn toàn không phụ thuộc vào tính chất của doanh nghiệp? Các thiết bị đầu cuối dùng cho trung tâm dịch vụ khách hàng (call center) khá ổn, nhưng bạn có thể gặp rắc rối với các ứng dụng không tương thích khi triển khai cho các nghiệp vụ khác. Khi các công nghệ ảo hóa desktop trở nên phổ biến, sẽ có nhiều cách đưa trình đơn Start đến người dùng và có nhiều cơ hội được người dùng chấp nhận hơn.

1. MapReduce

Tại sao nền tảng lập trình cho việc xử lý dữ liệu phân tán lại được chọn là công nghệ mới quan trọng nhất của năm 2009? Lý do là vì MapReduce cho phép doanh nghiệp thực hiện phân tích lượng dữ liệu khổng lồ với giá hợp lý. Một khả năng hứa hẹn làm thay đổi doanh nghiệp chưa từng thấy.

IDC đã tiên đoán sự tăng trưởng thông tin số gấp 10 lần trong khoảng 5 năm, từ 2006 đến 2011, từ dưới 180 exabyte lên 1.800 exabyte (nghĩa là 1 tỷ tỷ và 800 tỷ gigabyte!). Tất nhiên, sự bùng nổ này đặt ra một thách thức (làm thế nào cất vào, lấy ra và lưu chứa tất cả dữ liệu đó), nhưng cũng là cơ hội to lớn cho các doanh nghiệp. Tóm lại, mọi thứ trong biển dữ liệu đó là thông tin tiềm năng – thông tin có thể giúp cho việc ra các quyết định nghiệp vụ.
Mãi đến gần đây, các doanh nghiệp muốn xử lý hàng petabyte (triệu gigabyte) dữ liệu để tìm mối quan hệ liên quan đến nghiệp vụ phải rất cân nhắc khi đầu tư cho việc đầy mạo hiểm này vì chi phí và thời gian cần thiết là trở ngại. Nhưng điều này đang thay đổi khi có các kỹ thuật xử lý phân tán, đáng kể nhất là MapReduce – nền tảng lập trình cho phép Google, Yahoo, Facebook, MySpace và các hãng khác xử lý khối dữ liệu đồ sộ của họ.

Ở dạng đơn giản nhất, MapReduce chia việc xử lý thành nhiều khối công việc nhỏ, phân tán khắp liên cung gồm các nút tính toán (tiêu biểu là các server thông thường), rồi thu thập các kết quả. Hỗ trợ xử lý song song có khả năng mở rộng cao, MapReduce là giải pháp nhanh, rẻ và an toàn.

Google giới thiệu MapReduce vào năm 2004, và đến nay có nhiều giải pháp triển khai như Apache Hadoop, Qizmt, Skynet và Greenplum. Apache Hadoop là giải pháp nguồn mở hàng đầu. Amazon dùng Hadoop để cung cấp MapReduce như dịch vụ web.

Việc lập trình MapReduce được hỗ trợ trong nhiều sản phẩm phần mềm doanh nghiệp như GigaSpaces eXtreme Application Platform, GridGain Cloud Development Platform, IBM WebSphere eXtreme Scale và Oracle Coherence.
Sự bùng nổ dữ liệu không gì ngăn được là một thực tế. Khi có các giải pháp sử dụng MapReduce, chúng ta sẽ có thể nhìn thấy ý nghĩa của petabyte. Khó tưởng tượng được làm thế nào chỉ mới cách đây 30 năm, doanh nghiệp có thể hoạt động mà không có phần mềm xử lý thông tin nghiệp vụ hay thậm chí bảng tính. Trong tương lai không xa, khi MapReduce trở nên phổ biến, có thể các nhà hoạch định chiến lược cho doanh nghiệp cũng sẽ nhìn lại thời kỳ hiện nay một cách tương tự.

Nguyễn Lê
Nguồn: Infoworld