Hibagon – Wikipedia

Hibagon ( ヒ バ ) hoặc Hinagon ( ヒ ナ ゴ19659006]] là tương đương với Nhật Bản của Bigfoot Bắc Mỹ [ cần trích dẫn ] hoặc Himalaya Yeti. [ Nhìn thấy đã được báo cáo từ những năm 1970 [1] xung quanh Núi Hiba ở tỉnh Hiroshima. [ trích dẫn cần thiết ]

Lịch sử của Hibagon [ ]]

Hibagon được mô tả là "sinh vật đen với bàn tay trắng và bàn chân trắng lớn, cao khoảng 5 feet." [ cần trích dẫn ] và đã được cho là giống với một con khỉ đột. [ cần trích dẫn ]

"Hibagon có cái mũi lớn, đôi mắt to sâu và được phủ bằng lông. Theor ies để giải thích cho phạm vi mật mã này từ một con khỉ đột, một người đàn ông hoang dã hoặc một người đào ngũ từ các đầu bếp Nhật Bản, đến một cá nhân bị tàn phá bởi bức xạ nguyên tử từ cuộc tấn công hạt nhân vào Hiroshima. "[1965900017] cần trích dẫn ]

Một cảnh tượng từ năm 1972 báo cáo rằng sinh vật "có khuôn mặt màu nâu sô cô la và được bao phủ bởi mái tóc nâu … [and] được cho là có" đôi mắt sáng sâu ", trong hai báo cáo của Mr. Sazawa và một bà Harada, sinh vật không có hành động thù địch và chạy trốn khỏi bốn cư dân có vũ trang có ý định săn lùng nó. " [ cần trích dẫn ]

Hướng đạo sinh Nhật Bản, để tìm dấu chân dài 25 cm (10 in) và rộng 15 cm (6 in). " [ trích dẫn cần thiết ]

Văn hóa phổ biến [ chỉnh sửa ]

  • Trong Dragon Quest những quái vật được gọi là "badboons não" được gọi là ヒ バ (Hibabango) trong tiếng Nhật, tham khảo sinh vật này.

Xem một lso [ chỉnh sửa ]

Tài liệu tham khảo [ chỉnh sửa ]

20219112021912
20219132021914
20219152021916
20219172021918
202191920219110
2021911120219112
20219113

Pétange – Wikipedia

Công xã ở Esch-sur-Alzette, Luxembourg

Pétange (tiếng Luxembourg: Péiteng phát âm [ˈpəɪ̯teŋ]tiếng Đức: tây nam Luxembourg. Nó là một phần của bang Esch-sur-Alzette, một phần của quận Luxembourg. Pétange nằm ở biên giới với cả Bỉ và Pháp.

Tính đến năm 2007 thị trấn Pétange, nằm ở phía bắc của xã, có dân số 7.399 người. Các thị trấn khác trong xã bao gồm Lamadelaine và Rodange. Công xã là một trong những xã nhỏ nhất của Luxembourg, nhưng lại là nơi đông dân thứ năm. Đây là xã đông dân nhất không có tình trạng thành phố.

Lịch sử [ chỉnh sửa ]

Khu định cư hiện đại của Pétange được đề cập lần đầu tiên vào năm 938 với tên 'Perdgitten'. Sáu thế kỷ sau, Pétange vẫn chưa có được nhiều sự nổi bật; năm 1536, nó chỉ có khoảng 25 người.

Năm 1601, ranh giới giữa Luxembourg và Công tước Lorraine lần đầu tiên được phân định rõ ràng. Công xã hiện đại được phân chia giữa hai bên, với thị trấn Pétange sẽ đến Luxembourg, nhưng thị trấn Rodange và Lamadelaine, nằm xa hơn về phía nam, nằm ở phía Lor Lor của biên giới.

Khi, vào năm 1795, Luxembourg bị sáp nhập vào Pháp Cách mạng như một phần của văn hóa Forêts, các lãnh thổ trước đây của nó đã được thống nhất và lãnh thổ của xã được thành lập như ngày nay. Tuy nhiên, khi Luxembourg qua Vương quốc Hà Lan, sau Đại hội Vienna, các thị trấn Rodange và Lamadelaine đã đi qua.

Tầm quan trọng của thị trấn đã tăng lên rất nhiều vào cuối thế kỷ XIX, nhờ vào các ngành công nghiệp khai thác sắt và thép đang bùng nổ. Tuyến đường sắt đầu tiên vào Pétange được khai trương vào năm 1873, chạy đến Esch-sur-Alzette. Các tuyến đường sắt tiếp theo đã được thêm vào Ettelbrüc (1873) và Thành phố Luxembourg (1900).

Vào ngày 9 tháng 9 năm 1944, Pétange trở thành công xã đầu tiên trong cả nước được giải phóng bởi những người lính Đồng minh khi kết thúc sự chiếm đóng của Đức trong Thế chiến thứ hai. Để tưởng nhớ người lính đầu tiên chết trong giải phóng, một đài tưởng niệm đã được dựng lên để vinh danh ông: Quảng trường Hyman Josefson.

Địa lý [ chỉnh sửa ]

Công xã nằm ở cực tây nam của Luxembourg, giáp ranh với cả hai khu vực Pháp của Meurthe-et-Moselle và tỉnh Luxembourg của Bỉ. Thị trấn Rodange nằm ngay bên kia biên giới từ thị trấn Aubange của Bỉ. Pétange nằm ở cuối phía tây của Red Lands: đá trầm tích giàu sắt hình thành ở phía nam và phía tây nam của Luxembourg. Thị trấn nằm ở thượng nguồn của thung lũng Chiers, và là một trong số ít những nơi ở Luxembourg (cùng với xã differdange) nằm bên ngoài hệ thống thoát nước của sông Rhine.

Công xã chỉ có diện tích 12 km2 (5 dặm vuông), một trong những khu vực nhỏ nhất ở Luxembourg, nhưng là địa điểm của ba thị trấn quan trọng. Thị trấn Pétange tự nó có dân số 6,909, nhưng, mặc dù là thị trấn lớn thứ bảy ở Grand Duchy, chiếm chưa đến một nửa dân số của xã. Rodange, ở phía tây nam của xã, là nhà của 4.505 người, trong khi Lamadelaine, ở phía nam của xã, có dân số 2.335.

Các điểm tham quan [ chỉnh sửa ]

Phía nam của xã là quê hương của Titelberg, một ngọn đồi nổi bật trên đỉnh nằm trên tàn tích của một oppidum Celtic. Pháo đài trên tường có chiều dài 1 km (0,62 mi). Toàn bộ khu định cư có tổng dân số 10.000 người trước cuộc chinh phục của người La Mã, khiến nơi đây trở thành khu định cư tiền La Mã lớn nhất ở Luxembourg.

Pétange là ngôi nhà của lễ kỷ niệm tiền Lenten Karneval lớn nhất của Grand-Duchy. Hàng năm tổ chức một calvalacade với khoảng 1200 người tham gia và hàng ngàn người tham gia, tên chính thức là Karneval Gemeng Péiteng hoặc Kagepe (tên viết tắt ở tiếng Luxembourg được phát âm là Ka, Ge và Pe).

Tuyến đường sắt và bảo tàng di sản Fond de Gras tái tạo lại các điều kiện của Vùng đất đỏ vào năm 1900, ở đỉnh cao của sự tăng trưởng và phát triển của chúng. Trong khi trung tâm nằm ngay trong xã differdange, về phía đông, hai đầu máy hơi nước đưa du khách đến thị trấn Pétange và Rodange, và cung cấp một dòng khách du lịch đến các thị trấn vào mùa hè.

Pétange có một đội bóng đá trong Đội tuyển quốc gia hàng đầu của Luxembourg, được gọi là CS Pétange. Họ chơi các trò chơi tại nhà của họ tại Stade Municipal. Mặc dù là một trong những câu lạc bộ lâu đời nhất ở Luxembourg, nhưng được thành lập vào năm 1910, Pétange chỉ giành được một chiếc cúp duy nhất, Cúp Luxembourg năm 2004-05.

Người dân địa phương nổi tiếng [ chỉnh sửa ]

Twin town [ chỉnh sửa ]

Xem thêm ]]

Liên kết ngoài [ chỉnh sửa ]

20219412021942
20219432021944
20219452021946
20219472021948
202194920219410
2021941120219412
20219413

C. Bechstein – Wikipedia

C. Bechstein Pianoforte AG (còn được gọi là Bechstein Phát âm tiếng Đức: [ˈbɛxʃtaɪ̯n]) là một nhà sản xuất đàn piano của Đức, được thành lập vào năm 1853 bởi Carl Bechstein. chỉnh sửa ]

Trước khi Bechstein [ chỉnh sửa ]

Carl Bechstein trẻ đã học và làm việc ở Pháp và Anh với tư cách là một nghệ nhân piano . Những cây đàn piano đầu tiên của ông đã được sản xuất cho các công ty khác. [2]

C. Bechstein [ chỉnh sửa ]

C. Nhà máy sản xuất đàn piano Bechstein được thành lập vào ngày 1 tháng 10 năm 1853 bởi Carl Bechstein ở Berlin, Đức. [2]

Carl Bechstein đã bắt đầu sản xuất một cây đàn piano có thể chịu được những yêu cầu lớn đối với nhạc cụ của bậc thầy thời bấy giờ, như Franz Liszt. Năm 1857, Hans von Bülow (con rể của Liszt) đã trình diễn buổi biểu diễn công khai đầu tiên trên cây đàn piano Bechstein bằng cách biểu diễn Piano Sonata của Liszt tại B nhỏ ở Berlin. [2]

Đến năm 1870, với sự chứng thực của Franz Liszt và Hans von Bülow , Đàn piano Bechstein đã trở thành một mặt hàng chủ lực trong nhiều phòng hòa nhạc và biệt thự riêng. Vào thời điểm đó, ba nhà sản xuất đàn piano, tất cả đều được thành lập vào năm 1853, được thành lập với tư cách là những người dẫn đầu ngành trên toàn thế giới: Bechstein, Blüthner và Steinway & Sons. [3][4]

Năm 1881, Bechstein bắt đầu cung cấp đàn piano cho Nữ hoàng Victoria. Một cây đàn piano nghệ thuật mạ vàng đã được chuyển đến Cung điện Buckingham, [6] sau đó là một vài cây đàn piano Bechstein khác đến Lâu đài Windsor và các nơi ở khác của hoàng gia. [7][8] Nữ hoàng. [9] Một số đại sứ quán Anh trên toàn thế giới đã mua đàn piano Bechstein.

Năm 1885, Bechstein mở một chi nhánh ở London, cuối cùng phát triển để trở thành phòng trưng bày và đại lý lớn nhất ở châu Âu. Năm 1889, ông chuyển đến 40 phố Wigmore, tiếp quản tài sản của H.J. Cave & Sons vào năm 1890, các phòng trưng bày đã mở tại Paris, Vienna và Saint Petersburg. Vào ngày 31 tháng 5 năm 1901, Bechstein Hall, được xây dựng với chi phí 100.000 bảng Anh, [10] đã mở bên cạnh phòng trưng bày của công ty ở London tại 36-40 Wigmore Street. Từ năm 1901 đến 1914, C. Bechstein là đại lý piano lớn nhất ở London. Vào thời điểm đó, Bechstein được bảo trợ bởi các Sa hoàng của Nga, các gia đình hoàng gia Tây Ban Nha, Bỉ, Hà Lan, Ý, Thụy Điển, Na Uy, Áo và Đan Mạch, và các hoàng gia và quý tộc khác. [5] Danh sách khách hàng hoàng gia của Bechstein có thể được tìm thấy trên soundboard của những cây đàn piano Bechstein cổ điển được làm trước Thế chiến thứ hai. Danh sách này là một phần của logo thương hiệu Bechstein ban đầu; nó có thể được nhìn thấy dưới dây ở giữa bảng âm thanh của đàn piano. [7][8]

Chữ ký của Carl Bechstein

Những năm từ thập niên 1870 đến 1914 đã mang lại cho Bechstein doanh số tăng mạnh nhất. Năm 1880, một nhà máy Bechstein thứ hai đã được mở tại Berlin, [6] và nhà máy thứ ba được mở vào năm 1897 tại Berlin-Kreuzberg. [11] Sản lượng đạt 3.700 cây đàn piano hàng năm vào năm 1900 và 4.600 vào năm 1910 -end piano. [12] Vào thời điểm đó, khoảng ba phần tư sản xuất đã đi đến các thị trường quốc tế, đặc biệt là Anh và Liên bang, và Nga.

Carl Bechstein qua đời năm 1900, và công ty Bechstein tiếp tục hoạt động dưới sự quản lý của các con trai ông.

Đàn piano lớn Bechstein Art Nouveau, 1902

Giữa năm 1900 và 1914 C. Bechstein là một trong những nhà sản xuất đàn piano hàng đầu trên thế giới, sử dụng 1.200 thợ thủ công và công nhân vào năm 1913 và tạo ra năm nghìn cây đàn piano mỗi năm. Chiến tranh thế giới [ chỉnh sửa ]

C. Bechstein chịu thiệt hại lớn về tài sản ở London, Paris và St. Petersburg trong Thế chiến I. Mất mát lớn nhất là ở London. Mặc dù vị trí của công ty tại Vương quốc Anh ban đầu không bị ảnh hưởng, nhưng công ty vẫn được liệt kê là đang giữ Lệnh truy nã Hoàng gia vào tháng 1 năm 1915, [14] Bảo đảm cho cả Vua George V và vợ là Nữ hoàng Mary đã bị hủy bỏ vào ngày 13 tháng 4 năm 1915. ] Bechstein không phải là mối quan tâm âm nhạc duy nhất bị ảnh hưởng bởi tình cảm chống Đức ngày càng tăng: đã có những nỗ lực trước đó, dẫn đầu bởi William Boosey, để tẩy chay âm nhạc Đức hoàn toàn. Năm 1915, Ngài Edgar Speyer – mặc dù là Cố vấn viên Nam tước và Tư nhân, người sau đó đã tài trợ cho Proms – đã buộc phải rời khỏi đất nước. [16] Sau khi thông qua Đạo luật Giao dịch với Đạo luật Sửa đổi Kẻ thù 1916, cánh tay của công ty Anh bị thương -up vào ngày 5 tháng 6 năm 1916, [17] tất cả tài sản của Bechstein, bao gồm phòng hòa nhạc và phòng trưng bày đầy cây đàn piano, đã bị tịch thu là "tài sản của kẻ thù" và đóng cửa. Năm 1916, hội trường được bán làm tài sản ngoài hành tinh để bán đấu giá cho Debenhams với giá 56.500 bảng. Nó được đổi tên thành Wigmore Hall, và sau đó được mở lại dưới tên mới vào năm 1917. Tất cả 137 cây đàn piano Bechstein tại các showroom Bechstein cũng bị tịch thu, và trở thành tài sản của chủ sở hữu mới của Hội trường. [10] Sau một cuộc tranh cãi với anh trai , Edwin Bechstein rời công ty và được trả công.

Giữa các cuộc chiến [ chỉnh sửa ]

Một poster quảng cáo năm 1920 C. Bechstein

Cuối cùng, nhà máy Bechstein đã tiếp tục sản xuất quy mô đầy đủ trong những năm 1920. Vào thời điểm đó, những cải tiến kỹ thuật và phát minh ra các vật liệu và công cụ mới, cũng như những cải tiến trong thiết kế và xây dựng đàn piano, đã cho phép Bechstein trở thành một trong những nhà sản xuất đàn piano hàng đầu.

Những mẫu đàn thành công nhất là những cây đàn piano "A" -185 và "B" -208 được cập nhật. Những cây đàn piano thẳng đứng trở nên phổ biến hơn sau chiến tranh, và C. Bechstein đã thành công với những cây đàn piano thẳng đứng Model-8 và Model-9, cả hai đều được coi là những cây đàn piano thẳng đứng tốt nhất. [18] [19659018] Công ty đã trở thành một công ty cổ phần 1923, cho phép Edwin Bechstein và vợ Helene, mua lại một phần của công ty với tư cách là cổ đông.

Năm 1930, công ty đã hợp tác với nhà sản xuất hàng điện tử Đức của Đức dưới sự trao giải Nobel Walther Nernst để sản xuất một trong những cây đàn piano điện đầu tiên, "Neo-Bechstein" hoặc "Siemens-Bechstein", sử dụng máy bán tải điện từ.

Edwin Bechstein và vợ, Helene Bechstein, một người rất ngưỡng mộ nhà lãnh đạo Đức Quốc xã Adolf Hitler, đã tặng nhiều quà cho Hitler, kể cả chiếc xe sang trọng đầu tiên của ông, một chiếc Mercedes màu đỏ có giá 26.000 điểm. Helene Bechstein và bạn của cô Elsa Bruckmann đã giới thiệu Hitler với giới tinh hoa văn hóa của Đức ở Berlin và Munich. [19][20] "Tôi ước anh ta là con trai của tôi", cô nói. [21]

1934 tại Berchtesgaden, nơi ông có một biệt thự tên là "Bechstein" trong một khoảng cách ngắn đến Obersalzberg, cơ thể ông được chuyển đến Berlin. Ông được chôn cất sau một đám tang nhà nước có sự tham dự của các chính trị gia Adolf Hitler và NSDAP, bao gồm cả Wilhelm Frick và Max Amann. [22]

Chiến tranh thế giới thứ hai [ chỉnh sửa ]

nhà máy sản xuất đàn piano Bechstein ở Berlin, cùng với các cửa hàng gỗ quý của công ty, bao gồm cả cây vân sam quý giá được sử dụng để làm bảng âm thanh. Chiến tranh cũng tiêu tốn của công ty nhiều thợ thủ công giàu kinh nghiệm. Trong vài năm sau chiến tranh, Bechstein không thể tiếp tục sản xuất đàn piano toàn diện và chỉ sản xuất một vài cây đàn piano mỗi năm. [4]

Sau Thế chiến II [ chỉnh sửa ]

Sau khi de -Nazifying của Công ty C. Bechstein, nó đã bắt đầu sản xuất đàn piano một lần nữa vào năm 1948. [19] C. Bechstein cuối cùng đã tăng sản lượng đàn piano lên khoảng một nghìn cây đàn piano mỗi năm trong những năm 1950 và 1960. Tuy nhiên, tình hình kinh tế mới trong thế giới sau chiến tranh là khó khăn cho việc kinh doanh đàn piano. Năm 1961, nhà máy sản xuất đàn piano Bechstein bị ảnh hưởng bởi việc xây dựng Bức tường Berlin. Quyền sở hữu của C. Bechstein đã thay đổi nhiều lần. Năm 1963, tất cả cổ phần đã được bán cho Công ty Piano Baldwin. Cho đến khi thống nhất nước Đức, công ty đã sản xuất ít đàn piano hơn, mặc dù chất lượng của nghề thủ công vẫn cao.

Vào năm 1953, một trăm năm của Bechstein đã được Berlin Philharmonic tổ chức dưới thời Wilhelm Furtwängler và Wilhelm Backhaus. [23] Nhiều nghệ sĩ giải trí và nghệ sĩ piano hòa nhạc, như Leonard Bernstein, Jorge Bolet, và Kem Kemff. ] Bộ Văn hóa Nhà nước Liên Xô đã ký hợp đồng cung cấp các dàn nhạc và phòng hòa nhạc lớn của nhà nước trên khắp Liên Xô với ba thương hiệu đàn piano – Steinway & Sons, Blüthner và Bechstein. Blüthner và Bechstein cũng được sản xuất những cây đàn piano thực hành chính tại Nhạc viện Leningrad và Nhạc viện Moscow, trong khi hầu hết các trường âm nhạc khác của Liên Xô chỉ giới hạn chủ yếu ở những cây đàn piano do Liên Xô sản xuất. Những nghệ sĩ piano hòa nhạc, như Dinu Lipatti, Shura Cherkassky, Tatiana Nikolayeva, Vladimir Sofronitsky, và Sviatoslav Richter, trong số những người khác, thường chọn đàn piano Bechstein cho bản thu âm phòng thu của họ.

Sau khi Bức tường Berlin sụp đổ [ chỉnh sửa ]

Năm 1986, Karl Schulze, doanh nhân người Đức và nhà sản xuất đàn piano bậc thầy, đã mua Bechstein và tiếp tục kế thừa sản xuất đàn piano tốt. Do thống nhất nước Đức và xóa bỏ Bức tường Berlin, vùng đất trước đây thuộc nhà máy Bechstein đã được sử dụng để xây dựng mới ở thủ đô. Năm 1992, Bechstein đã thành lập một nhà máy mới tại Sachsen cho các nhạc cụ C. Bechstein và Zimmermann. [24] Việc sản xuất các nhạc cụ Zimmermann ở Seifhennersdorf đã ngừng vào cuối năm 2011. [25] Bechstein đã công khai. Năm 2003, Bechstein đã thành lập một quan hệ đối tác với Samick, để cải thiện việc phân phối ở nước ngoài. Ngày nay, sau khi tăng vốn thành công vào năm 2009, [26] Samick không còn cổ phiếu nào nữa. Ngày nay, các cổ đông lớn là Arnold Kuthe Beteiligungs GmbH cũng như Karl Schulze và vợ Berenice Küpper, tất cả các nhà đầu tư ở Berlin. [27]

đại lý tại các thành phố lớn trên khắp châu Âu, Bắc Mỹ và châu Á. Các trung tâm Bechstein mới đã được mở trong những năm gần đây tại New York, Moscow, Thượng Hải cũng như các trung tâm đối tác ở Kiev, Seoul, Sydney và Hà Lan. [24]

Năm 2007, C. Nhà máy Bechstein Châu Âu khai trương tại Hradec Králové, Cộng hòa Séc. Bechstein đã đầu tư hàng triệu Euro để xây dựng một trang web sản xuất mới, đặc biệt là cho các công cụ của W. Hoffmann. Tất cả các nhãn hiệu và nhạc cụ do C. Bechstein sản xuất hiện có nguồn gốc từ Châu Âu. [28]

Cùng với thành công kinh tế của công ty, các cây đại dương cầm của C. Bechstein đang trở lại trên các sân khấu hòa nhạc quốc tế và trong phòng thu âm. [29]

Năm 2006, Cuộc thi piano C. Bechstein quốc tế đầu tiên đã diễn ra dưới sự bảo trợ của Vladimir Ashkenazy. Các cuộc thi quốc gia C. Bechstein thường xuyên thúc đẩy sự phát triển âm nhạc của các nghệ sĩ trẻ.

Kể từ ngày 1 tháng 1 năm 2017, tập đoàn này được lãnh đạo bởi quản lý mới: Stefan Freymuth đã tiếp quản vị trí CEO của C. Bechstein Pianoforte AG, thay thế Karl Schulze, người đã lãnh đạo nhóm từ năm 1986 và sẽ tiếp tục tư vấn cho CEO mới làm đại diện chung.

Đàn piano Artcase [ chỉnh sửa ]

Bechstein đã được biết đến như là một nhà sản xuất đàn piano nghệ thuật có một không hai kể từ thế kỷ 19. [30] thiết kế nội thất cho cung điện hoàng gia và lâu đài. Các nghệ sĩ và thợ thủ công đã được C. Bechstein thuê để chế tạo những cây đàn piano đặc biệt được trang trí bằng vàng, các chi tiết chạm khắc bằng tay và nghệ thuật vẽ tay trên vỏ đàn piano. Một số Bechsteins hiện đang là tác phẩm của bảo tàng, trong khi một số khác đôi khi được giao dịch tại các cuộc đấu giá nhạc cụ, chủ yếu ở London và New York.

Nhà soạn nhạc [ chỉnh sửa ]

Bốn nhạc sĩ sáng tác trên những cây đàn piano Bechstein: Edvard Grieg, Alexander Scriabin, Maurice Ravel, Béla Bartók. [31]

Người biểu diễn [ chỉnh sửa ]

Sinh viên và tín đồ của Hans von Bülow và Franz Liszt cũng phát triển lòng trung thành với đàn piano Bechstein.

Alexander Scriabin sở hữu một chiếc Bechstein có kích thước buổi hòa nhạc tại nhà riêng ở Moscow, hiện là bảo tàng quốc gia, và cây đàn piano của Scriabin vẫn được chơi trong các buổi biểu diễn theo lịch trình. Tatiana Nikolayeva thích Bechstein cho các bản thu âm được hoan nghênh của bà về âm nhạc Bach. Sviatoslav Richter lớn lên học piano trên Bechstein và nhớ kinh nghiệm của mình với cây đàn piano đó là kích thích và bổ ích.

Claude Debussy nói "Nhạc piano chỉ nên được viết cho Bechstein". [32]

Edwin Fischer đã chọn một cây đàn piano Bechstein cho bản thu âm tiên phong của Bach cũng như Artur Schnabel cho chu kỳ 32 bản sonata của Beethoven. Cả hai nghệ sĩ đều rất thích những cây đàn piano Bechstein, cũng như nhiều nghệ sĩ piano hàng đầu của thế kỷ 20, như Wilhelm Kempff, Wilhelm Backhaus, Walter Gieseking và Jorge Bolet.

Nghệ sĩ piano người Ba Lan Władysław Szpilman (nổi tiếng nhờ bộ phim The Pianist ) đã sử dụng một cây đàn piano Bechstein cho đến năm 1941 trong căn hộ riêng của gia đình ông ở Warsaw.

Để thu âm phòng thu của Chopin và Beethoven, Dinu Lipatti đã sử dụng đàn piano Bechstein.

Bob Dylan chơi piano Bechstein tại Nhà hát ABC ở Edinburgh, Scotland vào ngày 20 tháng 5 năm 1966. [33] Ông được nhắc đến trên nhiều trang web của các đại lý Bechstein với tư cách là một người chơi Bechstein thông thường. [34] Khi Dave Stewart của The Eury nhịpics liệt kê cây đàn piano Bechstein của mình để bán đấu giá, ông đặt tên cho Bob Dylan là một trong những nhạc sĩ đã chơi đàn piano. [35]

Buổi hòa nhạc Bechstein lớn tại Trident Studios ở London, hơn một thế kỷ và được tìm kiếm nhiều -Sau khi có âm thanh của nó, đã trở thành một trong những nhạc cụ được ghi lại thường xuyên nhất trong lịch sử nhạc rock. Đàn piano có thể được nghe trên "Hey Jude" của The Beatles, "Bài hát của bạn" của Elton John, "All Things Must Pass" của David Harrison, "Life on Mars?", "Ngày hoàn hảo" của Lou Reed, "Rhapsody" của nữ hoàng , "Bạn thật vô dụng" của Carly Simon, "Không có em" của Nilsson và "Tội ác thế kỷ" của Supertramp. Nó đã thấy dịch vụ trong studio từ năm 1968 đến giữa những năm 1980, và kể từ đó đã được bán đấu giá.

Freddie Mercury của ban nhạc rock Anh Nữ hoàng đã chơi một cây đàn piano Bechstein trong album bán chạy nhất A Night at the Opera . (Phần ghi chú trong album, như được in lại trong bản phát hành CD / DVD cao cấp năm 2005 của album, ghi có Freddie Mercury với "Bechstein Debauchery".)

Video âm nhạc cho bài hát "Xin lỗi có vẻ là từ khó nhất" của Elton John có cảnh John đóng vai một ông lớn Bechstein trắng.

Oscar Peterson đã chơi và sở hữu một Bechstein trong suốt phần lớn sự nghiệp, hợp đồng công khai với các nhà sản xuất đối thủ bất chấp.

Anna Ivanova (2011) chơi đại dương cầm 1880 Bechstein cá nhân của Liszt, được hiển thị trong Liszt Haus ở Weimar (Đức). Có thể tìm thấy bản ghi âm của cô ấy chơi cả cây đàn piano lớn này và Bechstein 576 (được giao ngày 17 tháng 3 năm 1862 cho Franz Liszt), hiện đang được hiển thị tại Trung tâm Bechstein ở Berlin, có thể được tìm thấy trên YouTube.

  • Năm 1862, C. Bechstein đã được trao huy chương vàng tại Triển lãm quốc tế Luân Đôn. [36]
  • Năm 2007, C. Bechstein đã nhận được giải thưởng vàng iF cho C. Bechstein Piano Model. [37]

Bechstein được liệt kê trên Frankfurt Sở giao dịch chứng khoán. Các cổ đông lớn là Karl Schulze và vợ Berenice Küpper cũng như một nhà đầu tư tư nhân khác. Năm 2010 C. Bechstein đã mở văn phòng đại diện tại Thượng Hải, Trung Quốc.

Xem thêm [ chỉnh sửa ]

Tài liệu tham khảo [ chỉnh sửa ]

  1. ^ Báo cáo kinh doanh 2010 Lưu trữ năm 2011 cỗ máy Wayback
  2. ^ a b c Ehrlich, Cyril (2009). "Bechstein". Âm nhạc Grove trực tuyến . Nhà xuất bản Đại học Oxford . Truy xuất 2009-04-25 .
  3. ^ Ehrlich, Cyril (1988). "Lịch sử của Piano". Trong vành đai Philip. Đàn piano . Loạt nhạc cụ New Grove. W. Norton & Company Inc. 60. ISBN 0-393-30518-X.
  4. ^ a b Palmieri, Robert, ed. (1996). Bách khoa toàn thư về đàn piano . Thư viện tham khảo vòng hoa của nhân văn. 1131 . Vòng hoa. tr. 521. ISBN 0-8153-2582-7.
  5. ^ a b Ehrlich, Cyril (1976). "Sự xuất hiện của Đức". Đàn piano: Lịch sử . J. M. Dent & Sons Ltd. p. 75. ISBN 0-460-04246-7.
  6. ^ a b "Truyền thống 1860-1890". Bechstein. Lưu trữ từ bản gốc vào ngày 2009-10-14 . Truy xuất 2009-04-25 .
  7. ^ a b Fritzsch, E. W. (3 tháng 9 năm 1896). C. Nhãn hiệu Bechstein 1896 . Musikalisches Wochenblatt (bằng tiếng Đức). 27 . Leipzig: W.E. Fritzsch. tr. 487 . Đã truy xuất 2017 / 02-06 .
  8. ^ a b : insgesamt 62 Persönlichkeiten aus Deutschland (darunter auch der Herzog von Sachsen-Coburg-Gotha, der Heimat Bechsteins), Englang, Rußland und Schweden. Ở Luân Đôn, Paris và St. Petersburg chấp nhận Auslieferungszentren, ở London gab es -wie ở Berlin-sogar einen Bechstein-Konzertsaal (Bechstein-Hall, heute Wigmore-Hall). Lieferungen eripesgten trong insgesamt 153 bên trong- und außereuropäische Länder und Städte; Bechstein durfte sich Hoflieferant für 16 Herrscherhäuser ở Đức, Anh, Italien, Spanien, Rumänien, Schweden und Norwegen nennen. Bernd Rühle: Carl Bechstein (1826-1900) Über Leben und Lebenswerk eines Grossen Klavierbauers … [ liên kết chết ]
  9. ^ Công báo Luân Đôn . 5 tháng 1 năm 1886. p. 66.
  10. ^ a b "Lịch sử". Hội trường Wigmore . Truy xuất 2010 / 02-08 .
  11. ^ "Truyền thống 1890-1900". Bechstein . Truy xuất 2016/02/07 .
  12. ^ Ehrlich, Cyril (1976). "Sự xuất hiện của Đức". Đàn piano: Lịch sử . J. M. Dent & Sons Ltd. p. 79. ISBN 0-460-04246-7.
  13. ^ Ehrlich, Cyril (1976). "Sự xuất hiện của Đức". Đàn piano: Lịch sử . J. M. Dent & Sons Ltd. p. 73. ISBN 0-460-04246-7.
  14. ^ "Công báo Luân Đôn". Ngày 1 tháng 1 năm 1915. p. 30 . Truy xuất 2009-04-25 .
  15. ^ "Số 29127". Công báo Luân Đôn . 13 tháng 4 năm 1915. p. 3577.
  16. ^ Langley, Leanne (2007). "2". Trong Bác sĩ, Jenny; Wright, David; Kenyon, Nicholas. Proms: một lịch sử mới . Thames & Hudson. trang 62 & 67. ISBN 0-500-51352-X.
  17. ^ "Số 29613". Công báo Luân Đôn . 6 tháng 6 năm 1916. p. 5631.
  18. ^ Ehrlich, Cyril (1988). "Lịch sử của Piano". Trong vành đai, Philip. Đàn piano . Loạt nhạc cụ New Grove. W. Norton & Company Inc. 57. ISBN 0-393-30518-X.
  19. ^ a b Hundley, Tom (2008-04-30). "Hậu quả của WWII ủng hộ Steinway". Chicago Tribune . Truy xuất 2009-04-25 .
  20. ^ Clark, Christopher (2009-04-09). "Bình hoa, Bộ trà, Xì gà, Màu nước của chính mình". Tạp chí Sách Luân Đôn . Truy xuất 2009-04-01 .
  21. ^ Heiden, Konrad. Hitler . Nhà viết tiểu sử Hitler Konrad Heiden .
  22. ^ Klee, Ernst (2007). Das Kulturlexikon zum Dritten Reich: wer war was vor und nach 1945 (bằng tiếng Đức). S. Fischer. tr. 36. ISBN 3-10-039326-0.
  23. ^ a b "1950-1969". Trang web chính thức của Bechstein. 2009. Lưu trữ từ bản gốc vào ngày 2009-10-14 . Truy xuất 2009-04-25 .
  24. ^ a b [1] 1986-2000 Truyền thống tại máy Wayback (lưu trữ 2017/02/02)
  25. ^ [2] Lưu trữ ngày 21 tháng 8 năm 2012, tại Wayback Machine
  26. ^ "Bechstein-Tradition: 2001-Today" . Truy cập 6 tháng 2, 2017 .
  27. ^ "Quản lý • C. Bechstein Pianofortefabrik AG". www.bechstein.com (bằng tiếng Đức) . Truy cập 2017-01-24 .
  28. ^ "C. Bechstein Manufaktur ở Seifhennersdorf". Lưu trữ từ bản gốc vào ngày 4 tháng 6 năm 2016 . Truy cập ngày 11 tháng 11, 2009 .
  29. ^ [3] Lưu trữ ngày 5 tháng 11 năm 2009, tại Wayback Machine
  30. ^ -10-05). "Bàn phím Virtuoso". Thời báo New York . Truy xuất 2009-04-25 .
  31. ^ C. Bechstein: Truyền thuyết sống về Văn bản của Norbert Ely, được sửa đổi bởi Bechstein Phiên bản tiếng Anh: ÜMS Berlin © 8 | 2012 C. Bechstein Pianofortefabrik AG Kantstr 17 | 10623 Berlin | nước Đức www.bechstein.com
  32. ^ "Lịch sử của đàn piano Bechstein". classicpianistsofthefuture.org .
  33. ^ "Tháng 5 năm 1966 – Anh, xứ Wales & Scotland". Ngày 15 tháng 5 năm 2012.
  34. ^ "Bechstein". Mitchellspianogallery.com . Truy xuất 2012-01-07 .
  35. ^ "Tiêu đề". Bonhams. 2005/03/14. Lưu trữ từ bản gốc vào ngày 2005-08-30 . Truy xuất 2012-01-07 .
  36. ^ "Truyền thống 1855-1860". Bechstein. Lưu trữ từ bản gốc vào ngày 2009-10-14 . Truy xuất 2009-04-25 .
  37. ^ "Chi tiết nhập cảnh". Trang web chính thức của iF. Lưu trữ từ bản gốc vào ngày 2011/07/19 . Truy xuất 2009-04-25 .

Đọc thêm [ chỉnh sửa ]

Liên kết ngoài [ chỉnh sửa ]

Phương tiện liên quan đến C. Bechstein tại Wikimedia Commons

20219612021962
20219632021964
20219652021966
20219672021968
202196920219610
2021961120219612
20219613

C Epremoniale Episcoporum – Wikipedia

Cæremoniale Episcoporum (Nghi lễ của các Giám mục) là một cuốn sách mô tả các dịch vụ của Giáo hội được thực hiện bởi các Giám mục Nghi lễ Latinh của Giáo hội Công giáo La Mã.

Giáo hoàng Clement VIII xuất bản vào ngày 14 tháng 7 năm 1600 cuốn sách đầu tiên mang tên này, một bản sửa đổi, phù hợp với sự đổi mới của Hội đồng Trent, về nội dung của các cuốn sách, được gọi là Ordines Romani được viết từ cuối thế kỷ thứ bảy để mô tả các nghi thức bầu cử và phong chức Giáo hoàng và đưa ra các chỉ dẫn cho Thánh lễ và các lễ kỷ niệm khác của Giáo hoàng trong suốt năm. Nội dung của những cuốn sách này đã được làm phong phú theo thời gian. Một tác phẩm trong hai phần được biết đến là De Cæremoniis Cardinalium et Episcoporum in eorum diœcesibus (Nghi lễ của Hồng y và Giám mục trong Giáo phận riêng của họ) đã được thêm vào thế kỷ XVI. Giáo hoàng Clement VIII Cæremoniale Episcoporum được dựa trên các văn bản này và trên các văn bản khác hiện đã bị mất. Công việc chuẩn bị, bắt đầu vào tháng 12 năm 1582 dưới thời Giáo hoàng Gregory XIII mất 17 năm. Một bản fax của phiên bản 1600 gốc trong hai cuốn sách đã được xuất bản bởi Libreria Editrice Shakeana vào năm 2000.

Giáo hoàng Innocent X đã ban hành một phiên bản sửa đổi vào năm 1650. Vào năm 1727 hoặc 1729, các chương, ban đầu được in dưới dạng các khối đơn, được chia thành các đoạn được đánh số và tóm tắt được thêm vào đầu mỗi chương, thay cho các tiêu đề trước đó. Năm 1752, Giáo hoàng Benedict XIV đã sửa đổi một chút hai cuốn sách có từ trước và thêm một phần ba về các nghi lễ được quan sát bởi những người nắm giữ văn phòng dân sự ở các nước Giáo hoàng.

Năm 1886, Giáo hoàng Leo XIII đã thực hiện một sửa đổi khác, trong đó, mặc dù các nước Giáo hoàng đã được sáp nhập vào Vương quốc Ý, ông vẫn giữ cuốn sách thứ ba. Từ điển bách khoa Công giáo cung cấp một tài khoản của Cæremoniale Episcoporum khi nó đứng sau bản sửa đổi năm 1886 này. [1]

Phù hợp với sự đổi mới của Hội đồng Vatican II, phiên bản sửa đổi trong một tập duy nhất được phát hành bởi Giáo hoàng John Paul II vào năm 1984, thay thế các phiên bản trước đó. Bản sửa đổi nhằm đảm bảo một phụng vụ giám mục là "đơn giản, đồng thời cao quý, hoàn toàn có hiệu quả mục vụ và có khả năng làm gương cho tất cả các nghi thức phụng vụ khác." [2]

Cuốn sách gồm tám phần:

  1. Phụng vụ Tân giáo nói chung
  2. Thánh lễ
  3. Phụng vụ giờ và cử hành Lời Chúa
  4. Cử hành các Bí ẩn của Chúa trong quá trình của năm
  5. Bí tích
  6. 19659008] Những ngày đáng chú ý trong cuộc đời của một giám mục
  7. Các nghi thức phụng vụ liên quan đến các hành vi long trọng của quản trị giám mục

Ngoài ra còn có các phụ lục về:

  1. Dấu tích của prelates
  2. Một bảng các ngày phụng vụ được sắp xếp theo thứ tự ưu tiên
  3. Một bảng về Thánh lễ nghi lễ, Thánh lễ cho các nhu cầu khác nhau, Thánh lễ vàng mã và Thánh lễ theo yêu cầu
  4. cuốn sách

Xem thêm [ chỉnh sửa ]

Tài liệu tham khảo [ chỉnh sửa ]

Liên kết ngoài [ ]

20220512022052
20220532022054
20220552022056
20220572022058
202205920220510
2022051120220512
20220513

Được đặt tên – Wikipedia

The Named là một cuốn tiểu thuyết giả tưởng được viết bởi Marianne Curley. Đây là cuốn sách đầu tiên trong Bộ ba thời gian của Guardians of Time.

Tường thuật [ chỉnh sửa ]

Như với tất cả các cuốn sách của Guardians of Time, phần mở đầu được viết ở ngôi thứ ba trong khi tất cả các chương được viết ở ngôi thứ nhất, chuyển đổi quan điểm giữa hai người kể chuyện. Hai người kể chuyện là Ethan và Isabel. Họ ở cùng nhau trong hầu hết các cuốn sách.

Cài đặt [ chỉnh sửa ]

Câu chuyện được đặt ở Thác Angel, nằm trên thành phố cổ hư cấu của Trung Quốc. Thác Angel là một thị trấn nhỏ, hư cấu nằm gần bụi rậm Úc. Mô tả về các trường trung học ngụ ý rằng thị trấn nhỏ hơn trung bình.

Câu chuyện được đặt trong thời điểm hiện tại hoặc gần hiện tại. Một số câu chuyện diễn ra trong quá khứ, ở nhiều thời điểm và địa điểm khác nhau. Ví dụ, một trong những nhiệm vụ trước đó mà Isabel thực hiện với Ethan là đến nước Anh thời trung cổ, cũng như nước Mỹ thuộc địa. . Ethan, lúc bốn tuổi, nhận ra tình yêu của chị gái mình đối với tất cả những điều kỳ lạ và khác thường, và tình yêu được đưa vào kỳ quan của cô. Khoảnh khắc kỳ diệu bị hủy hoại bởi sự xuất hiện của một con quái vật, Marduke, kẻ giết chết Sera, 10 tuổi. Tiếng thét của Ethan đánh dấu bước chuyển từ phần mở đầu sang chương đầu tiên, nơi Ethan 16 tuổi than thở về cơn ác mộng tái diễn mà anh có về cái chết của em gái mình mười hai năm trước.

Cuộc sống của Ethan thay đổi mạnh mẽ sau cái chết của em gái anh ta; cha mẹ của anh, Laura và Shaun, chỉ là vỏ ốc của chính họ. Laura bị trầm cảm nặng trong khi Shaun tồn tại trong trạng thái tê liệt vĩnh viễn. Niềm an ủi duy nhất của anh là vị trí của anh trong The Guardians of Time, một nhóm binh lính được tổ chức bởi Lorian bất tử, với mục đích duy nhất là đánh bại nữ thần Lathenia và Order of Chaos của cô. Những người lính của Hội tồn tại để thay đổi tiến trình lịch sử để mang lại lợi ích cho nữ thần của họ; sự hỗn loạn được tạo ra trong quá khứ làm tăng sức mạnh của cô ấy ở hiện tại. Ethan và bạn bè và người cố vấn Arkarian đã dành phần lớn mười hai năm kể từ khi Sera qua đời để huấn luyện và thực hiện các nhiệm vụ về quá khứ để ngăn chặn Dòng khỏi trật tự lịch sử. Ethan và Arkarian không chỉ là thành viên của Đội cận vệ, mà còn được đặt tên theo một lời tiên tri cổ xưa dự đoán trận chiến cuối cùng giữa Đội cận vệ và Hội.

Sau nhiều năm cống hiến cho Đội cận vệ, Ethan được thưởng một người học việc. Nếu anh ta đào tạo cô ấy tốt, anh ta có thể được trao vinh dự cao nhất của Cảnh vệ; sức mạnh của chuyến bay. Mối quan tâm duy nhất của anh ta là người học việc sẽ là Isabel Beckett, em gái của Matt, người bạn thân cũ của anh ta. Isabel dành thời thơ ấu để theo đuổi Ethan, Matt và bạn bè của họ, mong muốn được đưa vào cuộc phiêu lưu của họ trong khi nuôi dưỡng một mối tình không quá bí mật đối với Ethan. Anh nhớ cô là một dịch hại và biết rằng Matt, người tin rằng Ethan theo đuổi bạn gái của anh, sẽ khiến việc tập luyện trở nên khó khăn. Sau khi vượt qua nhiều khó khăn, bao gồm vô tình thể hiện một trong những sức mạnh của mình với giáo viên lịch sử của mình, Ethan và Isabel kết nối lại và hình thành một tình bạn bền chặt. Họ thành công trong một số nhiệm vụ, tiết lộ các thành viên khác của Named trên đường đi. Tình cảm của Isabel đối với Ethan lớn dần và sau đó giảm dần khi cô gần gũi hơn với Arkarian, và niềm đam mê của cô về nguyên nhân và kỹ năng của cô khiến cô trở thành một thành viên mạnh mẽ của Named. Với lời tiên tri đang dần được thực hiện, nhiều danh tính của Dòng được biết đến. Ethan và Isabel biết rằng Marduke, quái vật trong những cơn ác mộng của Ethan, thực sự là một thành viên của Hội, người giữ mối thù chống lại Shaun, cựu thành viên của Named. Trong một nỗ lực để tăng tốc lời tiên tri, Marduke thách Shaun tham gia một trận chiến, nơi các thành viên của Named đối mặt với Marduke và những người lính giỏi nhất của anh ta.

Trong trận chiến giữa Named và Marduke, người ta tiết lộ rằng bạn gái của Matt, Rochelle cũng là một thành viên của Hội, và được Marduke trồng để chia tay tình bạn của Matt và Ethan. Trong một khoảnh khắc từ bi, Isabel giải thoát cô khỏi trận chiến, với lời hứa rằng Arkarian sẽ bảo vệ cô khỏi Dòng. Ethan đánh bại Marduke thành công, và trận chiến kết thúc.

Lễ tân [ chỉnh sửa ]

Với xếp hạng 4 sao trên Goodreads, [1] The Named giới thiệu một thế giới mà độc giả thích thú. Khái niệm này rất được hoan nghênh, mặc dù các phê bình bao gồm các nhân vật còn quá trẻ, và khía cạnh trung học của cuốn tiểu thuyết làm lu mờ siêu nhiên. Nhiều người gọi nó là một trang lật trang và mong được đọc những cuốn sách khác trong bộ ba.

Xem thêm [ chỉnh sửa ]

Tài liệu tham khảo [ chỉnh sửa ]

Liên kết ngoài [

20220612022062
20220632022064
20220652022066
20220672022068
202206920220610
2022061120220612
20220613

Đơn vị xử lý trung tâm – Wikipedia

Bộ xử lý trung tâm ( CPU ), còn được gọi là bộ xử lý trung tâm hoặc , là mạch điện tử trong máy tính thực hiện các hướng dẫn của chương trình máy tính bằng cách thực hiện các hoạt động số học, logic, điều khiển và đầu vào / đầu ra (I / O) cơ bản được chỉ định theo hướng dẫn. Ngành công nghiệp máy tính đã sử dụng thuật ngữ "đơn vị xử lý trung tâm" ít nhất là từ đầu những năm 1960. [1] Theo truyền thống, thuật ngữ "CPU" dùng để chỉ bộ xử lý, cụ thể hơn là đơn vị xử lý và đơn vị điều khiển (CU), để phân biệt các lõi này các yếu tố của một máy tính từ các thành phần bên ngoài như bộ nhớ chính và mạch I / O. [2]

Hình thức, thiết kế và triển khai CPU đã thay đổi trong suốt lịch sử của chúng, nhưng hoạt động cơ bản của chúng hầu như không thay đổi. Các thành phần chính của CPU bao gồm đơn vị logic số học (ALU) thực hiện các phép toán số học và logic, các thanh ghi bộ xử lý cung cấp toán hạng cho ALU và lưu trữ kết quả của các hoạt động ALU và một đơn vị điều khiển phối hợp tìm nạp (từ bộ nhớ) và thực thi hướng dẫn bằng cách chỉ đạo các hoạt động phối hợp của ALU, các thanh ghi và các thành phần khác.

Hầu hết các CPU hiện đại là bộ vi xử lý, có nghĩa là chúng được chứa trên một chip mạch tích hợp (IC). Một IC chứa CPU cũng có thể chứa bộ nhớ, giao diện ngoại vi và các thành phần khác của máy tính; các thiết bị tích hợp như vậy được gọi khác nhau là vi điều khiển hoặc hệ thống trên chip (SoC). Một số máy tính sử dụng bộ xử lý đa lõi, là một chip đơn chứa hai hoặc nhiều CPU được gọi là "lõi"; trong bối cảnh đó, người ta có thể nói về các chip đơn như "ổ cắm". [3]

Bộ xử lý mảng hoặc bộ xử lý vector có nhiều bộ xử lý hoạt động song song, không có đơn vị nào được coi là trung tâm. Ngoài ra còn tồn tại khái niệm về CPU ảo là một sự trừu tượng của các tài nguyên tính toán tổng hợp động. [4]

Lịch sử [ chỉnh sửa ]

EDVAC, một trong những máy tính được lưu trữ chương trình đầu tiên

Các máy tính ban đầu như ENIAC phải được nối lại vật lý để thực hiện các tác vụ khác nhau, điều này khiến các máy này được gọi là "máy tính chương trình cố định". [5] Vì thuật ngữ "CPU" thường được định nghĩa là một thiết bị cho phần mềm (chương trình máy tính ) thực thi, các thiết bị sớm nhất có thể được gọi là CPU đi kèm với sự ra đời của máy tính chương trình được lưu trữ.

Ý tưởng về một máy tính chương trình được lưu trữ đã có mặt trong thiết kế của ENIAC của J. Presper Eckert và John William Mauchly, nhưng ban đầu đã bị bỏ qua để có thể kết thúc sớm hơn. [6] Vào ngày 30 tháng 6 năm 1945, trước khi ENIAC được thực hiện, nhà toán học John von Neumann đã phân phát bài báo có tựa đề Bản thảo đầu tiên của một báo cáo về EDVAC . Đó là phác thảo của một máy tính chương trình được lưu trữ cuối cùng sẽ được hoàn thành vào tháng 8 năm 1949. [7] EDVAC được thiết kế để thực hiện một số hướng dẫn (hoặc thao tác) nhất định thuộc nhiều loại khác nhau. Đáng kể, các chương trình được viết cho EDVAC phải được lưu trữ trong bộ nhớ máy tính tốc độ cao chứ không phải được chỉ định bởi hệ thống dây điện của máy tính. [8] Điều này đã vượt qua giới hạn nghiêm trọng của ENIAC, đó là thời gian và nỗ lực đáng kể để cấu hình lại máy tính để thực hiện một nhiệm vụ mới. [9] Với thiết kế của von Neumann, chương trình mà EDVAC chạy có thể được thay đổi chỉ bằng cách thay đổi nội dung của bộ nhớ. EDVAC, tuy nhiên, không phải là máy tính được lưu trữ chương trình đầu tiên; Manchester Baby, một máy tính chương trình lưu trữ thử nghiệm quy mô nhỏ, đã chạy chương trình đầu tiên vào ngày 21 tháng 6 năm 1948 [10] và Manchester Mark 1 đã chạy chương trình đầu tiên của mình trong đêm 16 1717 tháng 6 năm 1949. [11]

CPU ban đầu là các thiết kế tùy chỉnh được sử dụng như một phần của máy tính lớn hơn và đôi khi đặc biệt. [12] Tuy nhiên, phương pháp thiết kế CPU tùy chỉnh này cho một ứng dụng cụ thể phần lớn đã tạo ra sự phát triển của bộ xử lý đa năng được sản xuất với số lượng lớn. Tiêu chuẩn hóa này bắt đầu trong kỷ nguyên của các máy tính lớn và máy tính mini bán dẫn rời rạc và đã nhanh chóng tăng tốc với sự phổ biến của mạch tích hợp (IC). IC đã cho phép các CPU ngày càng phức tạp được thiết kế và sản xuất để dung sai theo thứ tự nanomet. [13] Cả việc thu nhỏ và tiêu chuẩn hóa CPU đã làm tăng sự hiện diện của các thiết bị kỹ thuật số trong cuộc sống hiện đại vượt xa ứng dụng hạn chế của máy tính chuyên dụng. Các bộ vi xử lý hiện đại xuất hiện trong các thiết bị điện tử khác nhau, từ ô tô [14] đến điện thoại di động, [15] và đôi khi ngay cả trong đồ chơi. [16] [17]

Trong khi von Neumann thường được ghi nhận với thiết kế của máy tính chương trình được lưu trữ do thiết kế EDVAC của anh ấy và thiết kế được biết đến như kiến ​​trúc von Neumann, những người khác trước anh ấy, như Konrad Zuse, đã đề xuất và thực hiện những ý tưởng tương tự. [18] kiến trúc Harvard của Harvard Mark I, được hoàn thành trước EDVAC, [19][20] cũng sử dụng một thiết kế chương trình được lưu trữ bằng cách sử dụng băng giấy đục lỗ thay vì bộ nhớ điện tử. [21] Sự khác biệt chính giữa kiến ​​trúc von Neumann và Harvard là cái sau phân tách việc lưu trữ và xử lý các hướng dẫn và dữ liệu CPU, trong khi cái trước sử dụng cùng một không gian bộ nhớ cho cả hai. [22] Hầu hết các CPU hiện đại chủ yếu là von Neumann trong thiết kế, nhưng nhìn thấy CPU có kiến ​​trúc Harvard cũng như, đặc biệt là trong các ứng dụng nhúng; ví dụ, bộ vi điều khiển Atmel AVR là bộ xử lý kiến ​​trúc Harvard. [23]

Rơle và ống chân không (ống nhiệt) thường được sử dụng làm bộ phận chuyển mạch; [24][25] một máy tính hữu ích cần hàng nghìn hoặc hàng chục hàng ngàn thiết bị chuyển mạch. Tốc độ tổng thể của một hệ thống phụ thuộc vào tốc độ của các công tắc. Các máy tính ống như EDVAC có xu hướng trung bình tám giờ giữa các lần hỏng hóc, trong khi các máy tính chuyển tiếp như Harvard Mark I (chậm hơn, nhưng trước đó) rất hiếm khi xảy ra. [1] Cuối cùng, CPU dựa trên ống trở nên chiếm ưu thế vì nhìn chung lợi thế về tốc độ đáng kể vượt xa các vấn đề về độ tin cậy Hầu hết các CPU đồng bộ sớm này chạy ở tốc độ xung nhịp thấp so với các thiết kế vi điện tử hiện đại. Tần số tín hiệu đồng hồ dao động từ 100 kHz đến 4 MHz rất phổ biến tại thời điểm này, bị giới hạn chủ yếu bởi tốc độ của các thiết bị chuyển mạch mà chúng được chế tạo. [26]

CPU bóng bán dẫn [ chỉnh sửa ]

] Bộ xử lý IBM PowerPC 604e

Độ phức tạp trong thiết kế của CPU tăng lên khi các công nghệ khác nhau tạo điều kiện cho việc xây dựng các thiết bị điện tử nhỏ hơn và đáng tin cậy hơn. Sự cải tiến đầu tiên như vậy đi kèm với sự ra đời của bóng bán dẫn. Các CPU chuyển đổi trong những năm 1950 và 1960 không còn phải được chế tạo từ các phần tử chuyển mạch cồng kềnh, không đáng tin cậy và dễ vỡ như ống chân không và rơ le. [27] Với cải tiến này, các CPU đáng tin cậy và phức tạp hơn đã được chế tạo trên một hoặc một vài bảng mạch in rời rạc (cá nhân) thành phần.

Năm 1964, IBM giới thiệu kiến ​​trúc máy tính IBM System / 360 được sử dụng trong một loạt các máy tính có khả năng chạy cùng các chương trình với tốc độ và hiệu suất khác nhau. [28] Điều này rất có ý nghĩa vào thời điểm mà hầu hết các máy tính điện tử không tương thích với nhau, ngay cả những người được thực hiện bởi cùng một nhà sản xuất. Để tạo điều kiện cho sự cải tiến này, IBM đã sử dụng khái niệm vi chương trình (thường được gọi là "microcode"), vẫn sử dụng rộng rãi các CPU hiện đại. [29] Kiến trúc System / 360 phổ biến đến mức nó thống trị thị trường máy tính máy tính lớn trong nhiều thập kỷ và để lại một di sản vẫn còn tiếp tục bởi các máy tính hiện đại tương tự như IBM zSeries. [30][31] Năm 1965, Tập đoàn Thiết bị Kỹ thuật số (DEC) đã giới thiệu một máy tính có ảnh hưởng khác nhắm vào thị trường khoa học và nghiên cứu, PDP-8. [32]

với bộ xử lý SPARC64 VIIIfx

Máy tính dựa trên bóng bán dẫn có một số lợi thế khác biệt so với người tiền nhiệm. Bên cạnh việc tạo điều kiện tăng độ tin cậy và tiêu thụ điện năng thấp hơn, các bóng bán dẫn cũng cho phép CPU hoạt động ở tốc độ cao hơn nhiều do thời gian chuyển mạch ngắn của bóng bán dẫn so với ống hoặc rơle. [33] Độ tin cậy tăng và tốc độ chuyển mạch tăng đáng kể các yếu tố (gần như chỉ là bóng bán dẫn vào thời điểm này), tốc độ xung nhịp CPU trong hàng chục megahertz có thể dễ dàng đạt được trong giai đoạn này. [34] Ngoài ra, trong khi các bóng bán dẫn và CPU IC rời rạc được sử dụng nhiều, các thiết kế hiệu suất cao mới như SIMD ( Các bộ xử lý vectơ nhiều hướng dẫn đơn đã bắt đầu xuất hiện. [35] Những thiết kế thử nghiệm ban đầu này sau đó đã tạo ra kỷ nguyên của các siêu máy tính chuyên dụng giống như các sản phẩm của Cray Inc và Fujitsu Ltd. [35]

CPU tích hợp quy mô nhỏ [ chỉnh sửa ]

Trong giai đoạn này, một phương pháp sản xuất nhiều bóng bán dẫn được kết nối với nhau trong một không gian nhỏ gọn đã được phát triển. Mạch tích hợp (IC) cho phép một số lượng lớn các bóng bán dẫn được sản xuất trên một khuôn bán dẫn dựa trên chất bán dẫn hoặc "chip". Lúc đầu, chỉ có các mạch kỹ thuật số không chuyên dụng rất cơ bản như cổng NOR được thu nhỏ thành IC. [36] CPU dựa trên các IC "khối xây dựng" này thường được gọi là các thiết bị "tích hợp quy mô nhỏ" (SSI). Các IC SSI, chẳng hạn như các IC được sử dụng trong Máy tính hướng dẫn Apollo, thường chứa tới vài chục bóng bán dẫn. Để xây dựng toàn bộ CPU từ các IC SSI cần hàng nghìn chip riêng lẻ, nhưng vẫn tiêu tốn ít không gian và năng lượng hơn nhiều so với các thiết kế bóng bán dẫn rời rạc trước đó. [37]

Hệ thống của IBM / 370, tiếp theo System / 360, đã sử dụng các IC SSI thay vì các mô-đun bán dẫn rời rạc của Công nghệ Logic. [38][39] PDP-8 / I và KI10 PDP-10 của DEC cũng chuyển từ các bóng bán dẫn riêng lẻ được sử dụng bởi PDP-8 và PDP-10 sang SSI Các IC, [40] và dòng PDP-11 cực kỳ phổ biến của chúng ban đầu được chế tạo bằng các IC SSI nhưng cuối cùng được triển khai với các thành phần LSI một khi chúng trở nên thiết thực.

CPU tích hợp quy mô lớn [ chỉnh sửa ]

Lee Boysel đã xuất bản các bài viết có ảnh hưởng, bao gồm "tuyên ngôn" năm 1967, mô tả cách xây dựng tương đương với máy tính lớn 32 bit từ một số lượng tương đối nhỏ các mạch tích hợp quy mô lớn (LSI). [41][42] Vào thời điểm đó, cách duy nhất để xây dựng chip LSI, là các chip có hàng trăm cổng trở lên, là xây dựng chúng bằng quy trình MOS (nghĩa là , Logic PMOS, logic NMOS hoặc logic CMOS). Tuy nhiên, một số công ty tiếp tục xây dựng bộ xử lý từ chip lưỡng cực vì các bóng bán dẫn tiếp giáp lưỡng cực nhanh hơn nhiều so với chip MOS; ví dụ, Datapoint được chế tạo từ các chip logic bóng bán dẫn (TTL) cho đến đầu những năm 1980. [42] Vào thời điểm đó, các IC MOS chậm đến mức chúng chỉ được coi là hữu ích trong một vài ứng dụng thích hợp cần công suất thấp. [43] [44]

Khi công nghệ vi điện tử tiến bộ, số lượng bóng bán dẫn ngày càng tăng được đặt trên IC, làm giảm số lượng IC riêng lẻ cần thiết cho một CPU hoàn chỉnh. Các IC MSI và LSI tăng số lượng bóng bán dẫn lên hàng trăm, và sau đó là hàng ngàn. Đến năm 1968, số lượng IC cần thiết để xây dựng CPU hoàn chỉnh đã giảm xuống còn 24 IC thuộc tám loại khác nhau, với mỗi IC chứa khoảng 1000 MOSFET. [45] Trái ngược hoàn toàn với người tiền nhiệm SSI và MSI, triển khai LSI đầu tiên của PDP-11 chứa một CPU chỉ gồm bốn mạch tích hợp LSI. [46]

Bộ vi xử lý [ chỉnh sửa ]

Chết của bộ vi xử lý Intel 80486DX2 (kích thước thực tế: 12 × 6,75 mm) bao bì của nó

Kể từ khi giới thiệu bộ vi xử lý thương mại đầu tiên, Intel 4004 vào năm 1970, và bộ vi xử lý được sử dụng rộng rãi đầu tiên, Intel 8080 vào năm 1970. 1974, lớp CPU này đã gần như hoàn toàn vượt qua tất cả các phương thức thực hiện đơn vị xử lý trung tâm khác. Các nhà sản xuất máy tính lớn và máy tính mini thời đó đã tung ra các chương trình phát triển vi mạch độc quyền để nâng cấp kiến ​​trúc máy tính cũ của họ, và cuối cùng đã tạo ra các bộ vi xử lý tương thích tập hợp tương thích ngược với phần cứng và phần mềm cũ của họ. Kết hợp với sự ra đời và thành công cuối cùng của máy tính cá nhân có mặt khắp nơi, thuật ngữ CPU hiện được áp dụng gần như độc quyền [a] cho bộ vi xử lý. Một số CPU (ký hiệu là lõi ) có thể được kết hợp trong một chip xử lý duy nhất. [47]

Các thế hệ CPU trước đây được triển khai như các thành phần riêng biệt và nhiều mạch tích hợp nhỏ (IC) trên một hoặc nhiều bảng mạch. Mặt khác, vi xử lý là các CPU được sản xuất trên một số lượng rất nhỏ IC; thường chỉ là một. [49] Kích thước CPU tổng thể nhỏ hơn, do được thực hiện trên một lần chết, có nghĩa là thời gian chuyển đổi nhanh hơn vì các yếu tố vật lý như điện dung ký sinh cổng giảm. [50][51] Điều này đã cho phép các bộ vi xử lý đồng bộ có tốc độ xung nhịp từ hàng chục megahertz đến vài gigahertz. Ngoài ra, khả năng xây dựng các bóng bán dẫn cực nhỏ trên một IC đã làm tăng độ phức tạp và số lượng bóng bán dẫn trong một CPU nhiều lần. Xu hướng được quan sát rộng rãi này được mô tả bởi luật Moore, đã được chứng minh là một yếu tố dự báo khá chính xác về sự tăng trưởng của CPU (và các IC khác) cho đến năm 2016. [52] [53]

Mặc dù độ phức tạp, kích thước, cấu trúc và hình thức chung của CPU đã thay đổi rất nhiều kể từ năm 1950, [54] thiết kế và chức năng cơ bản không thay đổi nhiều. Hầu như tất cả các CPU thông thường ngày nay đều có thể được mô tả rất chính xác như các máy chương trình lưu trữ von Neumann. [55][b] Khi định luật Moore không còn tồn tại, đã có những lo ngại về giới hạn của công nghệ bóng bán dẫn mạch tích hợp. Việc thu nhỏ cực mạnh các cổng điện tử đang khiến cho các tác động của hiện tượng như điện từ và rò rỉ dưới ngưỡng trở nên quan trọng hơn nhiều. [57][58] Những mối quan tâm mới hơn này nằm trong số nhiều yếu tố khiến các nhà nghiên cứu nghiên cứu các phương pháp tính toán mới như máy tính lượng tử, cũng như để mở rộng việc sử dụng song song và các phương pháp khác mở rộng tính hữu dụng của mô hình von Neumann cổ điển.

Hoạt động [ chỉnh sửa ]

Hoạt động cơ bản của hầu hết các CPU, bất kể ở dạng vật lý nào, là để thực hiện một chuỗi các lệnh được lưu trữ được gọi là chương trình. Các hướng dẫn được thực hiện được giữ trong một số loại bộ nhớ máy tính. Gần như tất cả các CPU tuân theo các bước tìm nạp, giải mã và thực thi trong hoạt động của chúng, được gọi chung là chu trình lệnh.

Sau khi thực hiện một lệnh, toàn bộ quá trình lặp lại, với chu trình lệnh tiếp theo thường lấy lệnh tiếp theo theo thứ tự vì giá trị tăng dần trong bộ đếm chương trình. Nếu một lệnh nhảy được thực thi, bộ đếm chương trình sẽ được sửa đổi để chứa địa chỉ của lệnh được nhảy tới và việc thực hiện chương trình tiếp tục bình thường. Trong các CPU phức tạp hơn, nhiều lệnh có thể được tìm nạp, giải mã và thực thi đồng thời. Phần này mô tả cái thường được gọi là "đường ống RISC cổ điển", khá phổ biến trong số các CPU đơn giản được sử dụng trong nhiều thiết bị điện tử (thường được gọi là vi điều khiển). Nó chủ yếu bỏ qua vai trò quan trọng của bộ đệm CPU và do đó là giai đoạn truy cập của đường ống.

Một số hướng dẫn thao tác bộ đếm chương trình thay vì trực tiếp tạo dữ liệu kết quả; các hướng dẫn như vậy thường được gọi là "nhảy" và tạo điều kiện cho hành vi của chương trình như các vòng lặp, thực hiện chương trình có điều kiện (thông qua việc sử dụng bước nhảy có điều kiện) và sự tồn tại của các hàm. [c] Trong một số bộ xử lý, một số lệnh khác thay đổi trạng thái của bit trong một "cờ" đăng ký. Những cờ này có thể được sử dụng để ảnh hưởng đến cách thức hoạt động của một chương trình, vì chúng thường chỉ ra kết quả của các hoạt động khác nhau. Ví dụ, trong các bộ xử lý như vậy, một lệnh "so sánh" sẽ đánh giá hai giá trị và tập hợp hoặc xóa các bit trong thanh ghi cờ để chỉ ra giá trị nào lớn hơn hoặc liệu chúng có bằng nhau không; một trong những cờ này sau đó có thể được sử dụng bởi lệnh nhảy sau để xác định luồng chương trình.

Fetch [ chỉnh sửa ]

Bước đầu tiên, tìm nạp, liên quan đến việc truy xuất một lệnh (được biểu thị bằng một số hoặc dãy số) từ bộ nhớ chương trình. Vị trí (địa chỉ) của lệnh trong bộ nhớ chương trình được xác định bởi bộ đếm chương trình (PC), nơi lưu trữ một số xác định địa chỉ của lệnh tiếp theo sẽ được tìm nạp. Sau khi một lệnh được tìm nạp, PC được tăng theo độ dài của lệnh để nó sẽ chứa địa chỉ của lệnh tiếp theo trong chuỗi. [d] Thông thường, lệnh được tìm nạp phải được lấy từ bộ nhớ tương đối chậm, gây ra CPU bị đình trệ trong khi chờ lệnh được trả về. Vấn đề này phần lớn được giải quyết trong các bộ xử lý hiện đại bởi bộ nhớ cache và kiến ​​trúc đường ống (xem bên dưới).

Giải mã [ chỉnh sửa ]

Lệnh mà CPU tìm nạp từ bộ nhớ sẽ xác định CPU sẽ làm gì. Trong bước giải mã, được thực hiện bởi bộ giải mã được gọi là bộ giải mã lệnh lệnh được chuyển đổi thành tín hiệu điều khiển các phần khác của CPU.

Cách thức diễn giải lệnh được xác định bởi kiến ​​trúc tập lệnh của CPU (ISA). [e] Thông thường, một nhóm bit (nghĩa là "trường") trong lệnh, được gọi là opcode, chỉ ra hoạt động nào sẽ được thực hiện, trong khi các trường còn lại thường cung cấp thông tin bổ sung cần thiết cho hoạt động, chẳng hạn như các toán hạng. Các toán hạng này có thể được chỉ định là một giá trị không đổi (được gọi là giá trị ngay lập tức) hoặc là vị trí của một giá trị có thể là thanh ghi bộ xử lý hoặc địa chỉ bộ nhớ, như được xác định bởi một số chế độ địa chỉ.

Trong một số thiết kế CPU, bộ giải mã lệnh được triển khai như một mạch cứng, không thể thay đổi. Ở những người khác, một chương trình vi mô được sử dụng để dịch các hướng dẫn thành các bộ tín hiệu cấu hình CPU được áp dụng tuần tự trên nhiều xung đồng hồ. Trong một số trường hợp, bộ nhớ lưu chương trình vi mô có thể ghi lại, giúp có thể thay đổi cách CPU giải mã các hướng dẫn.

Thực thi [ chỉnh sửa ]

Sau các bước tìm nạp và giải mã, bước thực hiện được thực hiện. Tùy thuộc vào kiến ​​trúc CPU, điều này có thể bao gồm một hành động đơn lẻ hoặc một chuỗi các hành động. Trong mỗi hành động, các bộ phận khác nhau của CPU được kết nối bằng điện để chúng có thể thực hiện tất cả hoặc một phần của hoạt động mong muốn và sau đó hành động được hoàn thành, thường là để đáp ứng xung đồng hồ. Rất thường các kết quả được ghi vào một thanh ghi CPU bên trong để truy cập nhanh bằng các hướng dẫn tiếp theo. Trong các trường hợp khác, kết quả có thể được ghi vào bộ nhớ chính chậm hơn, nhưng ít tốn kém hơn và dung lượng cao hơn.

Ví dụ: nếu một lệnh bổ sung được thực thi, các đầu vào đơn vị logic số học (ALU) được kết nối với một cặp nguồn toán hạng (các số được tóm tắt), ALU được cấu hình để thực hiện thao tác bổ sung sao cho tổng các đầu vào toán hạng của nó sẽ xuất hiện ở đầu ra của nó và đầu ra ALU được kết nối với bộ lưu trữ (ví dụ: thanh ghi hoặc bộ nhớ) sẽ nhận được tổng. Khi xung đồng hồ xảy ra, tổng sẽ được chuyển sang bộ lưu trữ và nếu tổng kết quả quá lớn (tức là, nó lớn hơn kích thước từ đầu ra của ALU), cờ tràn số học sẽ được đặt.

Cấu trúc và cách thực hiện [ chỉnh sửa ]

Sơ đồ khối của máy tính CPU không bộ xử lý cơ bản. Các đường màu đen biểu thị luồng dữ liệu, trong khi các đường màu đỏ biểu thị luồng điều khiển; mũi tên chỉ hướng dòng chảy.

Được gắn vào mạch của CPU là một tập hợp các hoạt động cơ bản mà nó có thể thực hiện, được gọi là tập lệnh. Các hoạt động như vậy có thể bao gồm, ví dụ, cộng hoặc trừ hai số, so sánh hai số hoặc nhảy đến một phần khác nhau của chương trình. Mỗi hoạt động cơ bản được biểu diễn bằng một tổ hợp bit cụ thể, được gọi là opcode ngôn ngữ máy; trong khi thực hiện các lệnh trong chương trình ngôn ngữ máy, CPU sẽ quyết định thao tác nào sẽ thực hiện bằng cách "giải mã" opcode. Một hướng dẫn ngôn ngữ máy hoàn chỉnh bao gồm một opcode và, trong nhiều trường hợp, các bit bổ sung chỉ định các đối số cho hoạt động (ví dụ: các số được tóm tắt trong trường hợp hoạt động bổ sung). Đi lên thang độ phức tạp, một chương trình ngôn ngữ máy là một tập hợp các hướng dẫn ngôn ngữ máy mà CPU thực thi.

Hoạt động toán học thực tế cho mỗi lệnh được thực hiện bởi một mạch logic tổ hợp trong bộ xử lý của CPU được gọi là đơn vị logic số học hoặc ALU. Nói chung, CPU thực thi một lệnh bằng cách tìm nạp nó từ bộ nhớ, sử dụng ALU của nó để thực hiện một thao tác và sau đó lưu kết quả vào bộ nhớ. Bên cạnh các hướng dẫn về toán học số nguyên và các phép toán logic, còn tồn tại nhiều hướng dẫn máy khác, chẳng hạn như các lệnh để tải dữ liệu từ bộ nhớ và lưu trữ lại, các hoạt động phân nhánh và các phép toán trên các số dấu phẩy động được thực hiện bởi đơn vị dấu phẩy động của CPU (FPU ). [59]

Bộ điều khiển [ chỉnh sửa ]

Bộ điều khiển của CPU chứa mạch sử dụng tín hiệu điện để điều khiển toàn bộ hệ thống máy tính để thực hiện các lệnh chương trình được lưu trữ. Đơn vị điều khiển không thực hiện các hướng dẫn chương trình; thay vào đó, nó chỉ đạo các bộ phận khác của hệ thống làm như vậy. Thiết bị điều khiển giao tiếp với cả ALU và bộ nhớ.

Đơn vị logic số học [ chỉnh sửa ]

Biểu diễn tượng trưng của ALU và tín hiệu đầu vào và đầu ra của nó

Đơn vị logic số học (ALU) là một mạch kỹ thuật số trong bộ xử lý thực hiện các phép toán số nguyên và logic bitwise. Các đầu vào của ALU là các từ dữ liệu sẽ được vận hành trên (được gọi là toán hạng), thông tin trạng thái từ các hoạt động trước đó và mã từ đơn vị điều khiển cho biết thao tác nào sẽ thực hiện. Tùy thuộc vào lệnh được thực thi, các toán hạng có thể đến từ các thanh ghi CPU bên trong hoặc bộ nhớ ngoài hoặc chúng có thể là các hằng số được tạo bởi chính ALU.

Khi tất cả các tín hiệu đầu vào đã ổn định và lan truyền qua mạch ALU, kết quả của hoạt động được thực hiện sẽ xuất hiện ở đầu ra của ALU. Kết quả bao gồm cả một từ dữ liệu, có thể được lưu trữ trong một thanh ghi hoặc bộ nhớ và thông tin trạng thái thường được lưu trữ trong một thanh ghi CPU đặc biệt, bên trong dành riêng cho mục đích này.

Đơn vị quản lý bộ nhớ (MMU) [ chỉnh sửa ]

Hầu hết các bộ vi xử lý cao cấp (trong máy tính để bàn, máy tính xách tay, máy chủ) đều có bộ phận quản lý bộ nhớ, dịch địa chỉ logic vào RAM vật lý địa chỉ, cung cấp bảo vệ bộ nhớ và khả năng phân trang, hữu ích cho bộ nhớ ảo. Bộ xử lý đơn giản, đặc biệt là vi điều khiển, thường không bao gồm MMU.

Tốc độ xung nhịp [ chỉnh sửa ]

Hầu hết các CPU là các mạch đồng bộ, có nghĩa là chúng sử dụng tín hiệu đồng hồ để tăng tốc các hoạt động tuần tự của chúng. Tín hiệu đồng hồ được tạo ra bởi một mạch dao động bên ngoài tạo ra một số xung nhất quán mỗi giây dưới dạng sóng vuông định kỳ. Tần số của xung đồng hồ xác định tốc độ CPU thực hiện các lệnh và do đó, xung nhịp càng nhanh, CPU sẽ thực hiện càng nhiều lệnh mỗi giây.

Để đảm bảo CPU hoạt động chính xác, thời gian đồng hồ dài hơn thời gian tối đa cần thiết cho tất cả các tín hiệu để truyền (di chuyển) qua CPU. Khi đặt thời gian xung nhịp thành một giá trị cao hơn độ trễ lan truyền trong trường hợp xấu nhất, có thể thiết kế toàn bộ CPU và cách nó di chuyển dữ liệu xung quanh các "cạnh" của tín hiệu đồng hồ tăng và giảm. Điều này có lợi thế là đơn giản hóa đáng kể CPU, cả từ góc độ thiết kế và phối cảnh đếm thành phần. Tuy nhiên, nó cũng mang nhược điểm là toàn bộ CPU phải chờ các phần tử chậm nhất của nó, mặc dù một số phần của nó nhanh hơn nhiều. Hạn chế này phần lớn đã được bù đắp bằng nhiều phương pháp tăng song song CPU (xem bên dưới).

Tuy nhiên, một mình cải tiến kiến ​​trúc không giải quyết được tất cả các nhược điểm của CPU đồng bộ toàn cầu. Ví dụ, tín hiệu đồng hồ chịu sự chậm trễ của bất kỳ tín hiệu điện nào khác. Tốc độ xung nhịp cao hơn trong các CPU ngày càng phức tạp khiến cho việc giữ tín hiệu đồng hồ theo pha (đồng bộ hóa) trong toàn bộ thiết bị trở nên khó khăn hơn. Điều này đã khiến nhiều CPU hiện đại yêu cầu cung cấp nhiều tín hiệu đồng hồ giống hệt nhau để tránh trì hoãn một tín hiệu duy nhất đủ đáng kể để khiến CPU gặp trục trặc. Một vấn đề lớn khác, khi tốc độ xung nhịp tăng lên đáng kể, là lượng nhiệt bị tản ra bởi CPU. Đồng hồ thay đổi liên tục khiến nhiều thành phần chuyển đổi bất kể chúng có được sử dụng tại thời điểm đó hay không. Nói chung, một thành phần đang chuyển đổi sử dụng nhiều năng lượng hơn một thành phần ở trạng thái tĩnh. Do đó, khi tốc độ xung nhịp tăng, mức tiêu thụ năng lượng cũng tăng, khiến CPU đòi hỏi phải tản nhiệt nhiều hơn dưới dạng các giải pháp làm mát CPU.

Một phương pháp xử lý việc chuyển đổi các thành phần không cần thiết được gọi là gating đồng hồ, bao gồm tắt tín hiệu đồng hồ thành các thành phần không cần thiết (vô hiệu hóa chúng một cách hiệu quả). Tuy nhiên, điều này thường được coi là khó thực hiện và do đó không thấy việc sử dụng phổ biến bên ngoài các thiết kế công suất rất thấp. Một thiết kế CPU đáng chú ý gần đây sử dụng giao thức xung nhịp mở rộng là Xenon dựa trên PowerPC của IBM được sử dụng trong Xbox 360; theo cách đó, các yêu cầu về năng lượng của Xbox 360 đã giảm đáng kể. [60] Một phương pháp khác để giải quyết một số vấn đề với tín hiệu đồng hồ toàn cầu là loại bỏ hoàn toàn tín hiệu đồng hồ. Mặc dù loại bỏ tín hiệu đồng hồ toàn cầu làm cho quá trình thiết kế trở nên phức tạp hơn đáng kể theo nhiều cách, các thiết kế không đồng bộ (hoặc không đồng hồ) mang lại những lợi thế rõ rệt về mức tiêu thụ năng lượng và tản nhiệt so với các thiết kế đồng bộ tương tự. Mặc dù hơi không phổ biến, toàn bộ CPU không đồng bộ đã được xây dựng mà không sử dụng tín hiệu đồng hồ toàn cầu. Hai ví dụ đáng chú ý trong số này là AMULET tuân thủ ARM và MiniMIPS tương thích MIPS R3000.

Thay vì loại bỏ hoàn toàn tín hiệu đồng hồ, một số thiết kế CPU cho phép một số phần nhất định của thiết bị không đồng bộ, chẳng hạn như sử dụng ALU không đồng bộ kết hợp với đường ống siêu tốc để đạt được một số hiệu suất số học. Mặc dù không rõ ràng hoàn toàn liệu các thiết kế không đồng bộ hoàn toàn có thể thực hiện ở mức tương đương hoặc tốt hơn so với các đối tác đồng bộ của chúng hay không, rõ ràng là chúng ít nhất vượt trội trong các phép toán đơn giản hơn. Điều này, kết hợp với tính năng tiêu thụ năng lượng và tản nhiệt tuyệt vời của chúng, làm cho chúng rất phù hợp với các máy tính nhúng. [61]

Phạm vi số nguyên [ chỉnh sửa ]

Mỗi CPU đại diện cho các giá trị số theo một cách cụ thể . Ví dụ, một số máy tính kỹ thuật số ban đầu biểu thị các số dưới dạng các giá trị hệ số thập phân (cơ số 10) quen thuộc và các máy tính khác đã sử dụng các biểu diễn khác thường hơn như ternary (cơ sở ba). Gần như tất cả các CPU hiện đại đại diện cho các số ở dạng nhị phân, với mỗi chữ số được biểu thị bằng một số đại lượng vật lý có hai giá trị như điện áp "cao" hoặc "thấp". [f]

Một từ sáu bit chứa biểu thị mã hóa nhị phân của giá trị thập phân 40. Hầu hết các CPU hiện đại sử dụng các kích thước từ có sức mạnh bằng hai, ví dụ 8, 16, 32 hoặc 64 bit.

Liên quan đến biểu diễn số là kích thước và độ chính xác của số nguyên mà CPU có thể biểu thị. Trong trường hợp CPU nhị phân, số này được đo bằng số bit (chữ số có nghĩa của số nguyên được mã hóa nhị phân) mà CPU có thể xử lý trong một hoạt động, thường được gọi là kích thước từ độ rộng bit độ rộng đường dữ liệu độ chính xác số nguyên hoặc kích thước số nguyên . Kích thước số nguyên của CPU xác định phạm vi của các giá trị số nguyên mà nó có thể hoạt động trực tiếp. [g] Ví dụ: CPU 8 bit có thể thao tác trực tiếp các số nguyên được biểu thị bằng tám bit, có phạm vi 256 (2 8 ) các giá trị nguyên rời rạc.

Phạm vi số nguyên cũng có thể ảnh hưởng đến số lượng vị trí bộ nhớ mà CPU có thể trực tiếp giải quyết (địa chỉ là một giá trị nguyên biểu thị một vị trí bộ nhớ cụ thể). Ví dụ: nếu CPU nhị phân sử dụng 32 bit để thể hiện địa chỉ bộ nhớ thì nó có thể định vị trực tiếp 2 32 vị trí bộ nhớ. Để khắc phục giới hạn này và vì nhiều lý do khác, một số CPU sử dụng các cơ chế (như chuyển đổi ngân hàng) cho phép giải quyết bộ nhớ bổ sung.

CPU có kích thước từ lớn hơn đòi hỏi nhiều mạch hơn và do đó lớn hơn về mặt vật lý, chi phí cao hơn và tiêu thụ nhiều năng lượng hơn (và do đó tạo ra nhiều nhiệt hơn). Do đó, các bộ vi điều khiển 4 hoặc 8 bit nhỏ hơn thường được sử dụng trong các ứng dụng hiện đại mặc dù CPU có kích thước từ lớn hơn nhiều (như 16, 32, 64, thậm chí 128 bit) có sẵn. Tuy nhiên, khi hiệu suất cao hơn được yêu cầu, lợi ích của kích thước từ lớn hơn (phạm vi dữ liệu lớn hơn và không gian địa chỉ) có thể lớn hơn các nhược điểm. Một CPU có thể có đường dẫn dữ liệu nội bộ ngắn hơn kích thước từ để giảm kích thước và chi phí. Ví dụ, mặc dù tập lệnh IBM System / 360 là tập lệnh 32 bit, System / 360 Model 30 và Model 40 có các đường dẫn dữ liệu 8 bit trong đơn vị logic số học, do đó, cần thêm 32 bit chu kỳ, một cho mỗi 8 bit của toán hạng và mặc dù tập lệnh của Motorola 68000 là tập lệnh 32 bit, Motorola 68000 và Motorola 68010 có đường dẫn dữ liệu 16 bit trong đơn vị logic số học, do đó, một Thêm 32 bit yêu cầu hai chu kỳ.

To gain some of the advantages afforded by both lower and higher bit lengths, many instruction sets have different bit widths for integer and floating-point data, allowing CPUs implementing that instruction set to have different bit widths for different portions of the device. For example, the IBM System/360 instruction set was primarily 32 bit, but supported 64-bit floating point values to facilitate greater accuracy and range in floating point numbers.[29] The System/360 Model 65 had an 8-bit adder for decimal and fixed-point binary arithmetic and a 60-bit adder for floating-point arithmetic.[62] Many later CPU designs use similar mixed bit width, especially when the processor is meant for general-purpose usage where a reasonable balance of integer and floating point capability is required.

Parallelism[edit]

Model of a subscalar CPU, in which it takes fifteen clock cycles to complete three instructions

The description of the basic operation of a CPU offered in the previous section describes the simplest form that a CPU can take. This type of CPU, usually referred to as subscalaroperates on and executes one instruction on one or two pieces of data at a time, that is less than one instruction per clock cycle (IPC < 1).

This process gives rise to an inherent inefficiency in subscalar CPUs. Since only one instruction is executed at a time, the entire CPU must wait for that instruction to complete before proceeding to the next instruction. As a result, the subscalar CPU gets "hung up" on instructions which take more than one clock cycle to complete execution. Even adding a second execution unit (see below) does not improve performance much; rather than one pathway being hung up, now two pathways are hung up and the number of unused transistors is increased. This design, wherein the CPU's execution resources can operate on only one instruction at a time, can only possibly reach scalar performance (one instruction per clock cycle, IPC = 1). However, the performance is nearly always subscalar (less than one instruction per clock cycle, IPC < 1).

Attempts to achieve scalar and better performance have resulted in a variety of design methodologies that cause the CPU to behave less linearly and more in parallel. When referring to parallelism in CPUs, two terms are generally used to classify these design techniques:

Each methodology differs both in the ways in which they are implemented, as well as the relative effectiveness they afford in increasing the CPU's performance for an application.[h]

Instruction-level parallelism[edit]

Basic five-stage pipeline. In the best case scenario, this pipeline can sustain a completion rate of one instruction per clock cycle.

One of the simplest methods used to accomplish increased parallelism is to begin the first steps of instruction fetching and decoding before the prior instruction finishes executing. This is the simplest form of a technique known as instruction pipelining, and is used in almost all modern general-purpose CPUs. Pipelining allows more than one instruction to be executed at any given time by breaking down the execution pathway into discrete stages. This separation can be compared to an assembly line, in which an instruction is made more complete at each stage until it exits the execution pipeline and is retired.

Pipelining does, however, introduce the possibility for a situation where the result of the previous operation is needed to complete the next operation; a condition often termed data dependency conflict. To cope with this, additional care must be taken to check for these sorts of conditions and delay a portion of the instruction pipeline if this occurs. Naturally, accomplishing this requires additional circuitry, so pipelined processors are more complex than subscalar ones (though not very significantly so). A pipelined processor can become very nearly scalar, inhibited only by pipeline stalls (an instruction spending more than one clock cycle in a stage).

A simple superscalar pipeline. By fetching and dispatching two instructions at a time, a maximum of two instructions per clock cycle can be completed.

Further improvement upon the idea of instruction pipelining led to the development of a method that decreases the idle time of CPU components even further. Designs that are said to be superscalar include a long instruction pipeline and multiple identical execution units, such as load-store units, arithmetic-logic units, floating-point units and address generation units.[63] In a superscalar pipeline, multiple instructions are read and passed to a dispatcher, which decides whether or not the instructions can be executed in parallel (simultaneously). If so they are dispatched to available execution units, resulting in the ability for several instructions to be executed simultaneously. In general, the more instructions a superscalar CPU is able to dispatch simultaneously to waiting execution units, the more instructions will be completed in a given cycle.

Most of the difficulty in the design of a superscalar CPU architecture lies in creating an effective dispatcher. The dispatcher needs to be able to quickly and correctly determine whether instructions can be executed in parallel, as well as dispatch them in such a way as to keep as many execution units busy as possible. This requires that the instruction pipeline is filled as often as possible and gives rise to the need in superscalar architectures for significant amounts of CPU cache. It also makes hazard-avoiding techniques like branch prediction, speculative execution, register renaming, out-of-order execution and transactional memory crucial to maintaining high levels of performance. By attempting to predict which branch (or path) a conditional instruction will take, the CPU can minimize the number of times that the entire pipeline must wait until a conditional instruction is completed. Speculative execution often provides modest performance increases by executing portions of code that may not be needed after a conditional operation completes. Out-of-order execution somewhat rearranges the order in which instructions are executed to reduce delays due to data dependencies. Also in case of single instruction stream, multiple data stream—a case when a lot of data from the same type has to be processed—, modern processors can disable parts of the pipeline so that when a single instruction is executed many times, the CPU skips the fetch and decode phases and thus greatly increases performance on certain occasions, especially in highly monotonous program engines such as video creation software and photo processing.

In the case where a portion of the CPU is superscalar and part is not, the part which is not suffers a performance penalty due to scheduling stalls. The Intel P5 Pentium had two superscalar ALUs which could accept one instruction per clock cycle each, but its FPU could not accept one instruction per clock cycle. Thus the P5 was integer superscalar but not floating point superscalar. Intel's successor to the P5 architecture, P6, added superscalar capabilities to its floating point features, and therefore afforded a significant increase in floating point instruction performance.

Both simple pipelining and superscalar design increase a CPU's ILP by allowing a single processor to complete execution of instructions at rates surpassing one instruction per clock cycle.[i] Most modern CPU designs are at least somewhat superscalar, and nearly all general purpose CPUs designed in the last decade are superscalar. In later years some of the emphasis in designing high-ILP computers has been moved out of the CPU's hardware and into its software interface, or ISA. The strategy of the very long instruction word (VLIW) causes some ILP to become implied directly by the software, reducing the amount of work the CPU must perform to boost ILP and thereby reducing the design's complexity.

Task-level parallelism[edit]

Another strategy of achieving performance is to execute multiple threads or processes in parallel. This area of research is known as parallel computing.[64] In Flynn's taxonomy, this strategy is known as multiple instruction stream, multiple data stream (MIMD).[65]

One technology used for this purpose was multiprocessing (MP).[66] The initial flavor of this technology is known as symmetric multiprocessing (SMP), where a small number of CPUs share a coherent view of their memory system. In this scheme, each CPU has additional hardware to maintain a constantly up-to-date view of memory. By avoiding stale views of memory, the CPUs can cooperate on the same program and programs can migrate from one CPU to another. To increase the number of cooperating CPUs beyond a handful, schemes such as non-uniform memory access (NUMA) and directory-based coherence protocols were introduced in the 1990s. SMP systems are limited to a small number of CPUs while NUMA systems have been built with thousands of processors. Initially, multiprocessing was built using multiple discrete CPUs and boards to implement the interconnect between the processors. When the processors and their interconnect are all implemented on a single chip, the technology is known as chip-level multiprocessing (CMP) and the single chip as a multi-core processor.

It was later recognized that finer-grain parallelism existed with a single program. A single program might have several threads (or functions) that could be executed separately or in parallel. Some of the earliest examples of this technology implemented input/output processing such as direct memory access as a separate thread from the computation thread. A more general approach to this technology was introduced in the 1970s when systems were designed to run multiple computation threads in parallel. This technology is known as multi-threading (MT). This approach is considered more cost-effective than multiprocessing, as only a small number of components within a CPU is replicated to support MT as opposed to the entire CPU in the case of MP. In MT, the execution units and the memory system including the caches are shared among multiple threads. The downside of MT is that the hardware support for multithreading is more visible to software than that of MP and thus supervisor software like operating systems have to undergo larger changes to support MT. One type of MT that was implemented is known as temporal multithreading, where one thread is executed until it is stalled waiting for data to return from external memory. In this scheme, the CPU would then quickly context switch to another thread which is ready to run, the switch often done in one CPU clock cycle, such as the UltraSPARC T1. Another type of MT is simultaneous multithreading, where instructions from multiple threads are executed in parallel within one CPU clock cycle.

For several decades from the 1970s to early 2000s, the focus in designing high performance general purpose CPUs was largely on achieving high ILP through technologies such as pipelining, caches, superscalar execution, out-of-order execution, etc. This trend culminated in large, power-hungry CPUs such as the Intel Pentium 4. By the early 2000s, CPU designers were thwarted from achieving higher performance from ILP techniques due to the growing disparity between CPU operating frequencies and main memory operating frequencies as well as escalating CPU power dissipation owing to more esoteric ILP techniques.

CPU designers then borrowed ideas from commercial computing markets such as transaction processing, where the aggregate performance of multiple programs, also known as throughput computing, was more important than the performance of a single thread or process.

This reversal of emphasis is evidenced by the proliferation of dual and more core processor designs and notably, Intel's newer designs resembling its less superscalar P6 architecture. Late designs in several processor families exhibit CMP, including the x86-64 Opteron and Athlon 64 X2, the SPARC UltraSPARC T1, IBM POWER4 and POWER5, as well as several video game console CPUs like the Xbox 360's triple-core PowerPC design, and the PlayStation 3's 7-core Cell microprocessor.

Data parallelism[edit]

A less common but increasingly important paradigm of processors (and indeed, computing in general) deals with data parallelism. The processors discussed earlier are all referred to as some type of scalar device.[j] As the name implies, vector processors deal with multiple pieces of data in the context of one instruction. This contrasts with scalar processors, which deal with one piece of data for every instruction. Using Flynn's taxonomy, these two schemes of dealing with data are generally referred to as single instruction stream, multiple data stream (SIMD) and single instruction stream, single data stream (SISD), respectively. The great utility in creating processors that deal with vectors of data lies in optimizing tasks that tend to require the same operation (for example, a sum or a dot product) to be performed on a large set of data. Some classic examples of these types of tasks include multimedia applications (images, video and sound), as well as many types of scientific and engineering tasks. Whereas a scalar processor must complete the entire process of fetching, decoding and executing each instruction and value in a set of data, a vector processor can perform a single operation on a comparatively large set of data with one instruction. This is only possible when the application tends to require many steps which apply one operation to a large set of data.

Most early vector processors, such as the Cray-1, were associated almost exclusively with scientific research and cryptography applications. However, as multimedia has largely shifted to digital media, the need for some form of SIMD in general-purpose processors has become significant. Shortly after inclusion of floating-point units started to become commonplace in general-purpose processors, specifications for and implementations of SIMD execution units also began to appear for general-purpose processors.[when?] Some of these early SIMD specifications – like HP's Multimedia Acceleration eXtensions (MAX) and Intel's MMX – were integer-only. This proved to be a significant impediment for some software developers, since many of the applications that benefit from SIMD primarily deal with floating-point numbers. Progressively, developers refined and remade these early designs into some of the common modern SIMD specifications, which are usually associated with one ISA. Some notable modern examples include Intel's SSE and the PowerPC-related AltiVec (also known as VMX).[k]

Virtual CPUs[edit]

Cloud computing can involve subdividing CPU operation into virtual central processing units[67] (vCPUs[68]).

A host is the virtual equivalent of a physical machine, on which a virtual system is operating.[69] When there are several physical machines operating in tandem and managed as a whole, the grouped computing and memory resources form a cluster. In some systems, it is possible to dynamically add and remove from a cluster. Resources available at a host and cluster level can be partitioned out into resources pools with fine granularity.

Performance[edit]

The performance or speed of a processor depends on, among many other factors, the clock rate (generally given in multiples of hertz) and the instructions per clock (IPC), which together are the factors for the instructions per second (IPS) that the CPU can perform.[70] Many reported IPS values have represented "peak" execution rates on artificial instruction sequences with few branches, whereas realistic workloads consist of a mix of instructions and applications, some of which take longer to execute than others. The performance of the memory hierarchy also greatly affects processor performance, an issue barely considered in MIPS calculations. Because of these problems, various standardized tests, often called "benchmarks" for this purpose‍—‌such as SPECint‍—‌have been developed to attempt to measure the real effective performance in commonly used applications.

Processing performance of computers is increased by using multi-core processors, which essentially is plugging two or more individual processors (called cores in this sense) into one integrated circuit.[71] Ideally, a dual core processor would be nearly twice as powerful as a single core processor. In practice, the performance gain is far smaller, only about 50%, due to imperfect software algorithms and implementation.[72] Increasing the number of cores in a processor (i.e. dual-core, quad-core, etc.) increases the workload that can be handled. This means that the processor can now handle numerous asynchronous events, interrupts, etc. which can take a toll on the CPU when overwhelmed. These cores can be thought of as different floors in a processing plant, with each floor handling a different task. Sometimes, these cores will handle the same tasks as cores adjacent to them if a single core is not enough to handle the information.

Due to specific capabilities of modern CPUs, such as hyper-threading and uncore, which involve sharing of actual CPU resources while aiming at increased utilization, monitoring performance levels and hardware use gradually became a more complex task.[73] As a response, some CPUs implement additional hardware logic that monitors actual use of various parts of a CPU and provides various counters accessible to software; an example is Intel's Performance Counter Monitor technology.[3]

See also[edit]

  1. ^ Integrated circuits are now used to implement all CPUs, except for a few machines designed to withstand large electromagnetic pulses, say from a nuclear weapon.
  2. ^ The so-called "von Neumann" memo expounded the idea of stored programs,[56] which for example may be stored on punched cards, paper tape, or magnetic tape.
  3. ^ Some early computers like the Harvard Mark I did not support any kind of "jump" instruction, effectively limiting the complexity of the programs they could run. It is largely for this reason that these computers are often not considered to contain a proper CPU, despite their close similarity to stored-program computers.
  4. ^ Since the program counter counts memory addresses and not instructionsit is incremented by the number of memory units that the instruction word contains. In the case of simple fixed-length instruction word ISAs, this is always the same number. For example, a fixed-length 32-bit instruction word ISA that uses 8-bit memory words would always increment the PC by four (except in the case of jumps). ISAs that use variable-length instruction words increment the PC by the number of memory words corresponding to the last instruction's length.
  5. ^ Because the instruction set architecture of a CPU is fundamental to its interface and usage, it is often used as a classification of the "type" of CPU. For example, a "PowerPC CPU" uses some variant of the PowerPC ISA. A system can execute a different ISA by running an emulator.
  6. ^ The physical concept of voltage is an analog one by nature, practically having an infinite range of possible values. For the purpose of physical representation of binary numbers, two specific ranges of voltages are defined, one for logic '0' and another for logic '1'. These ranges are dictated by design considerations such as noise margins and characteristics of the devices used to create the CPU.
  7. ^ While a CPU's integer size sets a limit on integer ranges, this can (and often is) overcome using a combination of software and hardware techniques. By using additional memory, software can represent integers many magnitudes larger than the CPU can. Sometimes the CPU's instruction set will even facilitate operations on integers larger than it can natively represent by providing instructions to make large integer arithmetic relatively quick. This method of dealing with large integers is slower than utilizing a CPU with higher integer size, but is a reasonable trade-off in cases where natively supporting the full integer range needed would be cost-prohibitive. See Arbitrary-precision arithmetic for more details on purely software-supported arbitrary-sized integers.
  8. ^ Neither ILP nor TLP is inherently superior over the other; they are simply different means by which to increase CPU parallelism. As such, they both have advantages and disadvantages, which are often determined by the type of software that the processor is intended to run. High-TLP CPUs are often used in applications that lend themselves well to being split up into numerous smaller applications, so-called "embarrassingly parallel problems". Frequently, a computational problem that can be solved quickly with high TLP design strategies like symmetric multiprocessing takes significantly more time on high ILP devices like superscalar CPUs, and vice versa.
  9. ^ Best-case scenario (or peak) IPC rates in very superscalar architectures are difficult to maintain since it is impossible to keep the instruction pipeline filled all the time. Therefore, in highly superscalar CPUs, average sustained IPC is often discussed rather than peak IPC.
  10. ^ Earlier the term scalar was used to compare the IPC count afforded by various ILP methods. Here the term is used in the strictly mathematical sense to contrast with vectors. See scalar (mathematics) and Vector (geometric).
  11. ^ Although SSE/SSE2/SSE3 have superseded MMX in Intel's general-purpose processors, later IA-32 designs still support MMX. This is usually accomplished by providing most of the MMX functionality with the same hardware that supports the much more expansive SSE instruction sets.

References[edit]

  1. ^ a b Weik, Martin H. (1961). "A Third Survey of Domestic Electronic Digital Computing Systems". Ballistic Research Laboratory.
  2. ^ Kuck, David (1978). Computers and Computations, Vol 1. John Wiley & Sons, Inc. p. 12. ISBN 0471027162.
  3. ^ a b Thomas Willhalm; Roman Dementiev; Patrick Fay (December 18, 2014). "Intel Performance Counter Monitor – A better way to measure CPU utilization". software.intel.com. Retrieved February 17, 2015.
  4. ^ Liebowitz, Kusek, Spies, Matt, Christopher, Rynardt (2014). VMware vSphere Performance: Designing CPU, Memory, Storage, and Networking for Performance-Intensive Workloads. Wiley. tr. 68. ISBN 978-1-118-00819-5.CS1 maint: Multiple names: authors list (link)
  5. ^ Regan, Gerard. A Brief History of Computing. tr. 66. ISBN 1848000839. Retrieved 26 November 2014.
  6. ^ "Bit By Bit". Haverford College. Archived from the original on October 13, 2012. Retrieved August 1, 2015.
  7. ^ "First Draft of a Report on the EDVAC" (PDF). Moore School of Electrical Engineering, University of Pennsylvania. 1945.
  8. ^ Stanford University. "The Modern History of Computing". The Stanford Encyclopedia of Philosophy. Retrieved September 25, 2015.
  9. ^ "ENIAC's Birthday". Báo chí MIT. February 9, 2016. Retrieved October 17, 2018.
  10. ^ Enticknap, Nicholas (Summer 1998), "Computing's Golden Jubilee", ResurrectionThe Computer Conservation Society (20), ISSN 0958-7403retrieved 22 November 2018
  11. ^ "The Manchester Mark 1". The University of Manchester. Retrieved September 25, 2015.
  12. ^ "The First Generation". Computer History Museum. Retrieved September 29, 2015.
  13. ^ "The History of the Integrated Circuit". Nobelprize.org. Retrieved September 29, 2015.
  14. ^ Turley, Jim. "Motoring with microprocessors". Embedded. Retrieved November 15, 2015.
  15. ^ "Mobile Processor Guide – Summer 2013". Android Authority. Retrieved November 15, 2015.
  16. ^ "Section 250: Microprocessors and Toys: An Introduction to Computing Systems". The University of Michigan. Retrieved October 9, 2018.
  17. ^ "ARM946 Processor". ARM. Retrieved November 15, 2015.
  18. ^ "Konrad Zuse". Computer History Museum. Retrieved September 29, 2015.
  19. ^ "Timeline of Computer History: Computers". Computer History Museum. Retrieved November 21, 2015.
  20. ^ White, Stephen. "A Brief History of Computing – First Generation Computers". Retrieved November 21, 2015.
  21. ^ "Harvard University Mark – Paper Tape Punch Unit". Computer History Museum. Retrieved November 21, 2015.
  22. ^ "What is the difference between a von Neumann architecture and a Harvard architecture?". ARM. Retrieved November 22, 2015.
  23. ^ "Advanced Architecture Optimizes the Atmel AVR CPU". Atmel. Retrieved November 22, 2015.
  24. ^ "Switches, transistors and relays". BBC. Retrieved 7 February 2016.
  25. ^ "Introducing the Vacuum Transistor: A Device Made of Nothing". IEEE Spectrum. Retrieved 27 January 2019.
  26. ^ "What Is Computer Performance?". The National Academies Press. Retrieved May 16, 2016.
  27. ^ "1953: Transistorized Computers Emerge". Computer History Museum. Retrieved June 3, 2016.
  28. ^ "IBM System/360 Dates and Characteristics". IBM.
  29. ^ a b Amdahl, G. M.; Blaauw, G. A.; Brooks, F. P. Jr. (April 1964). "Architecture of the IBM System/360". IBM Journal of Research and Development. IBM. 8 (2): 87–101. doi:10.1147/rd.82.0087. ISSN 0018-8646.
  30. ^ Brodkin, John. "50 years ago, IBM created mainframe that helped send men to the Moon". Ars Technica. Retrieved 9 April 2016.
  31. ^ Clarke, Gavin. "Why won't you DIE? IBM's S/360 and its legacy at 50". The Register. Retrieved 9 April 2016.
  32. ^ "Online PDP-8 Home Page, Run a PDP-8". PDP8. Retrieved September 25, 2015.
  33. ^ "Transistors, Relays, and Controlling High-Current Loads". New York University. ITP Physical Computing. Retrieved 9 April 2016.
  34. ^ Lilly, Paul. "A Brief History of CPUs: 31 Awesome Years of x86". PC Gamer. Retrieved June 15, 2016.
  35. ^ a b Patterson, David A.; Hennessy, John L.; Larus, James R. (1999). Computer Organization and Design: the Hardware/Software Interface (2. ed., 3rd print. ed.). San Francisco: Kaufmann. tr. 751. ISBN 1558604286.
  36. ^ "1962: Aerospace systems are first the applications for ICs in computers". Computer History Museum. Retrieved October 9, 2018.
  37. ^ "The integrated circuits in the Apollo manned lunar landing program". National Aeronautics and Space Administration. Retrieved October 9, 2018.
  38. ^ "System/370 Announcement". IBM Archives. Retrieved October 25, 2017.
  39. ^ "System/370 Model 155 (Continued)". IBM Archives. Retrieved October 25, 2017.
  40. ^ "Models and Options". The Digital Equipment Corporation PDP-8. Retrieved June 15, 2018.
  41. ^ Ross Knox Bassett (2007). To the Digital Age: Research Labs, Start-up Companies, and the Rise of MOS Technology. Nhà xuất bản Đại học Johns Hopkins. pp. 127–128, 256, and 314. ISBN 0-8018-6809-2.
  42. ^ a b Ken Shirriff. "The Texas Instruments TMX 1795: the first, forgotten microprocessor".
  43. ^ "Speed & Power in Logic Families"..
  44. ^ T. J. Stonham. "Digital Logic Techniques: Principles and Practice". 1996. tr. 174.
  45. ^ R. K. Booher. "MOS GP Computer". afips, pp.877, 1968 Proceedings of the Fall Joint Computer Conference, 1968 doi:10.1109/AFIPS.1968.126
  46. ^ "LSI-11 Module Descriptions". LSI-11, PDP-11/03 user's manual (PDF) (2nd ed.). Maynard, Massachusetts: Digital Equipment Corporation. November 1975. pp. 4–3.
  47. ^ Margaret Rouse (March 27, 2007). "Definition: multi-core processor". TechTarget. Retrieved March 6, 2013.
  48. ^ Richard Birkby. "A Brief History of the Microprocessor". computermuseum.li. Archived from the original on September 23, 2015. Retrieved October 13, 2015.
  49. ^ Osborne, Adam (1980). An Introduction to Microcomputers. Volume 1: Basic Concepts (2nd ed.). Berkeley, California: Osborne-McGraw Hill. ISBN 0-931988-34-9.
  50. ^ Zhislina, Victoria. "Why has CPU frequency ceased to grow?". Intel. Retrieved October 14, 2015.
  51. ^ "MOS Transistor – Electrical Engineering & Computer Science" (PDF). University of California. Retrieved October 14, 2015.
  52. ^ Simonite, Tom. "Moore's Law Is Dead. Now What?". MIT Technology Review. Retrieved 2018-08-24.
  53. ^ "Excerpts from A Conversation with Gordon Moore: Moore's Law" (PDF). Intel. 2005. Archived from the original (PDF) on 2012-10-29. Retrieved 2012-07-25.
  54. ^ Lilly, Paul. "A Brief History of CPUs: 31 Awesome Years of x86". Maximum PC. Retrieved December 10, 2015.
  55. ^ Eigenmann, Rudolf; Lilja, David. "Von Neumann Computers" (pdf). Retrieved June 15, 2018.
  56. ^ Aspray, William (September 1990). "The stored program concept". IEEE Spectrum. Tập 27 không. 9. doi:10.1109/6.58457.
  57. ^ Saraswat, Krishna. "Trends in Integrated Circuits Technology" (pdf). Retrieved June 15, 2018.
  58. ^ "Electromigration". Middle East Technical University. Retrieved June 15, 2018.
  59. ^ Ian Wienand (September 3, 2013). "Computer Science from the Bottom Up, Chapter 3. Computer Architecture" (PDF). bottomupcs.com. Retrieved January 7, 2015.
  60. ^ Brown, Jeffery (2005). "Application-customized CPU design". IBM developerWorks. Retrieved 2005-12-17.
  61. ^ Garside, J. D.; Furber, S. B.; Chung, S-H (1999). "AMULET3 Revealed". University of Manchester Computer Science Department. Archived from the original on December 10, 2005.
  62. ^ "IBM System/360 Model 65 Functional Characteristics" (PDF). IBM. September 1968. pp. 8–9. A22-6884-3.
  63. ^ Huynh, Jack (2003). "The AMD Athlon XP Processor with 512KB L2 Cache" (PDF). University of Illinois, Urbana-Champaign. pp. 6–11. Archived from the original (PDF) on 2007-11-28. Retrieved 2007-10-06.
  64. ^ Gottlieb, Allan; Almasi, George S. (1989). Highly parallel computing. Redwood City, Calif.: Benjamin/Cummings. ISBN 0-8053-0177-1.
  65. ^ Flynn, M. J. (September 1972). "Some Computer Organizations and Their Effectiveness". IEEE Trans. Comput. C-21 (9): 948–960. doi:10.1109/TC.1972.5009071.
  66. ^ "Parallelism exploitation in superscalar multiprocessing". IEEE Xplore. Retrieved 25 April 2016.
  67. ^ Anjum, Bushra; Perros, Harry G. (2015). "1: Partitioning the End-to-End QoS Budget to Domains". Bandwidth Allocation for Video Under Quality of Service Constraints. Focus Series. John Wiley & Sons. tr. 3. ISBN 9781848217461. Retrieved 2016-09-21. […] in cloud computing where multiple software components run in a virtual environment on the same blade, one component per virtual machine (VM). Each VM is allocated a virtual central processing unit […] which is a fraction of the blade's CPU.
  68. ^ Fifield, Tom; Fleming, Diane; Gentle, Anne; Hochstein, Lorin; Proulx, Jonathan; Toews, Everett; Topjian, Joe (2014). "Glossary". OpenStack Operations Guide. Beijing: O'Reilly Media, Inc. p. 286. ISBN 9781491906309. Retrieved 2016-09-20. Virtual Central Processing Unit (vCPU)[:] Subdivides physical CPUs. Instances can then use those divisions.
  69. ^ "VMware Infrastructure Architecture Overview- White Paper" (PDF). VMware. VMware. 2006.
  70. ^ "CPU Frequency". CPU World Glossary. CPU World. 25 March 2008. Retrieved 1 January 2010.
  71. ^ "What is (a) multi-core processor?". Data Center Definitions. SearchDataCenter.com. Retrieved 8 August 2016.
  72. ^ "Quad Core Vs. Dual Core". Buzzle. Retrieved 26 November 2014.
  73. ^ Tegtmeier, Martin. "CPU utilization of multi-threaded architectures explained". Oracle. Retrieved September 29, 2015.

External links[edit]

Listen to this article (2 parts) · (info)
This audio file was created from a revision of the article "Central processing unit" dated 2006-06-13, and does not reflect subsequent edits to the article. (Audio help)

20218912021892
20218932021894
20218952021896
20218972021898
202189920218910
2021891120218912
20218913

Câu chuyện tháng 4 – Wikipedia

Câu chuyện tháng tư (tiếng Nhật: 四月 ) là một bộ phim Nhật Bản của đạo diễn Shunji Iwai do Takako Matsu đóng vai chính.

Uzuki Nireno, một cô gái nhút nhát đến từ vùng nông thôn phía bắc Hokkaidoaidō, rời khỏi gia đình và lên một chuyến tàu đi đến Tokyo để cô có thể theo học trường đại học mà mình lựa chọn; được ở gần chàng trai mà cô đã yêu, người chuyển đến Tokyo từ quê nhà.

Phiên bản DVD [ chỉnh sửa ]

  • Tiếng Nhật R2 (Không có phụ đề tiếng Anh)
  • R3 Hàn Quốc (Phụ đề tiếng Anh)
  • Hồng Kông R3 (Tiếng Nhật / Tiếng Trung phụ đề)

Liên hoan [ chỉnh sửa ]

  • 1998 Liên hoan phim quốc tế Pusan: Giải thưởng khán giả

Tài liệu tham khảo [ chỉnh sửa [ chỉnh sửa ]

20219012021902
20219032021904
20219052021906
20219072021908
202190920219010
2021901120219012
20219013