7 Hình mầu của may rủi Phân bố chuẩn
Phương trình này cho ta biết điều gì?
Xác suất để quan sát được một giá trị cụ thể của dữ liệu đạt cực đại ở gần giá trị trung bình và giảm nhanh khi càng ra xa giá trị trung bình đó. Tốc độ suy giảm phụ thuộc vào một đại lượng có tên là độ lệch chuẩn.
Tại sao nó lại quan trọng?Nó xác định một họ phân bố xác suất hình chuông đặc biệt, thường là những mô hình tốt của những quan sát thường gặp trong thế giới thực.
Nó đã dẫn tới những gì?Khái niệm “người trung bình”, kiểm định ý nghĩa của các kết quả thí nghiệm, như các thử nghiệm trong y học, và một xu hướng sai lầm là mặc định phân bố chuẩn cứ như là không tồn tại một loại phân bố nào khác.
Toán học nghiên cứu các hình mẫu. Sự vận hành đầy tính ngẫu nhiên của may rủi dường như còn xa mới là những hình mẫu mà bạn có thể nhận biết được. Thực tế, một trong những định nghĩa hiện đang lưu hành của từ “ngẫu nhiên” có thể được tóm lại thành “không có hình mẫu nào cả”. Các nhà toán học đã nghiên cứu các hình mẫu trong hình học, đại số và giải tích hàng thế kỷ trước khi họ nhận ra rằng ngay cả tính ngẫu nhiên cũng có những hình mẫu riêng của mình. Nhưng hình mẫu của may rủi không xung đột với ý tưởng cho rằng các sự kiện ngẫu nhiên không có hình mẫu, bởi vì tính quy luật của các sự kiện ngẫu nhiên đều mang tính thống kê. Chúng là đặc điểm của một loạt các sự kiện, như hành vi trung bình sau một chuỗi dài các phép thử. Chúng không cho chúng ta biết về sự kiện nào xảy ra ở thòi điểm nào. Chẳng hạn, nếu bạn tung đi tung lại một con xúc xắc1 thì bạn sẽ nhận được mặt 1 với tỉ lệ một phần sáu, và các mặt 2, 3, 4, 5, 6 cũng với tỉ lệ như thế - rõ ràng là một hình mẫu có tính thống kê. Nhưng điều này cũng không cho bạn biết mặt nào sẽ xuất hiện ở lần tung tới.
Mãi tới thế kỷ 19, các nhà toán học và các nhà khoa học mới nhận ra tầm quan trọng của các hình mẫu thống kê trong các sự kiện mang tính may rủi. Ngay cả hành động của con người, như là tự tử hay ly dị, cũng đều là đối tượng của các định luật định lượng, về trung bình và trong thời gian dài. Phải mất nhiều thời gian người ta mới dần quen được với những cái mà thoạt nhìn dường như mâu thuẫn với ý chí tự do. Nhưng ngày nay các quy luật mang tính thống kê chính là cơ sở của các thử nghiệm trong y học, chính sách xã hội, phí bảo hiểm, phân bố rủi ro và thể thao chuyên nghiệp.
Và bài bạc, chính là điểm mà mọi chuyện bắt đầu.
Thật thích hợp là mọi thứ đã khởi đầu từ một học giả nghiện cờ bạc tên là Girolamo Cardano. Gần như là một kẻ vô công rồi nghề, Cardano đã thu được nhiều tiền mặt từ việc đặt cược vào các ván cờ và các trò may rủi. Ông đã sử dụng trí thông minh tuyệt vời của mình cho cả hai thứ. Cờ thì không phụ thuộc vào sự may rủi, vì để thắng đòi hỏi phải có một trí nhớ tốt để nhớ các vị trí và các nước đi chuẩn, và một trực giác nhạy bén về xu hướng của ván cờ. Tuy nhiên, trong một trò chơi may rủi, người chơi là đối tượng cho ý thích bất chợt của thần may mắn. Cardano nhận ra rằng ông có thể áp dụng khả năng toán học của mình để thu lợi ngay cả trong mối quan hệ hỗn loạn ấy. Ông có thể nâng cao hiệu quả của mình trong các trò chơi may rủi nhờ nắm bắt được ưu thế - tức khả năng thắng hoặc thua - tốt hơn các đối thủ của ông. Ông cũng đã viết một cuốn sách về chủ đề này, nhan đề Sách về các trò choi may rủi (Liber de Ludo Aleae ). Nhưng tới tận năm 1633 nó mới được xuất bản. Nội dung học thuật của cuốn sách là sự trình bày có hệ thống đầu tiên về toán xác suất. Nội dung không mấy hay ho trong đó là một chương về cách lừa gạt và tránh bị trừng phạt.
Một trong những nguyên lý cơ bản của Cardano là, trong một trò cá cược sòng phẳng, tiền đặt cược phải tỉ lệ với số cách chơi mà trong đó mỗi người chơi có thể giành chiến thắng. Chẳng hạn, giả sử những người chơi tung một quân xúc xắc, và người chơi đầu tiên sẽ thắng nếu thu được mặt 6, trong khi người chơi thứ hai sẽ thắng nếu thu được một mặt nào đó khác. Trò chơi này sẽ rất thiếu công bằng nếu mỗi người đều đặt cược cùng một số tiền, bởi vì người đầu tiên chỉ có một cách duy nhất để giành chiến thắng, trong khi người kia có tới năm. Nếu người thứ nhất đặt 1 bảng, và người thứ hai đặt 5 bảng, thì sự may mắn mới công bằng. Cardano ý thức được rằng phương pháp tính toán may mắn công bằng này phụ thuộc vào các cách khác nhau để giành chiến thắng một cách công bằng, nhưng trong các trò xúc xắc, đánh bài hay tung đồng xu, rõ ràng là ta biết làm thế nào để đảm bảo chắc chắn rằng điều kiện này có thể áp dụng được. Tung đồng xu cho ta hai kết cục, sấp hoặc ngửa, và chúng có khả năng xảy ra như nhau nếu như đó là một đồng xu chuẩn. Nếu như đồng xu có xu hướng cho kết cục ngửa nhiều hơn sấp, thì rõ ràng đồng xu đó bị thiên lệch - gian lận. Tương tự như vậy, sáu kết cục của quân xúc xắc chuẩn cũng phải gần như nhau, hay như 52 kết cục cho một lá bài được lấy ra từ cả bộ bài.
Tính logic đằng sau khái niệm công bằng ở đây hơi luẩn quẩn, bởi vì chúng ta suy ra sự sai lệch từ sự không ăn khóp với các điều kiện số hiển nhiên. Nhưng các điều kiện này được củng cố từ nhiều thứ hơn là chỉ thuần túy từ việc đếm. Chúng dựa trên cảm giác về đối xứng. Nếu đồng xu là một cái đĩa kim loại phẳng, mật độ đều, thì hai kết cục khi tung sẽ liên quan với nhau thông qua sự đối xứng của đồng xu (lật nó). với quân xúc xắc, các kết cục thu được liên quan đến các đối xứng của hình lập phương. Và cho các lá bài, đối xứng hiển nhiên nhất chính là việc không lá nào quá khác với lá nào, ngoại trừ giá trị ghi trên mặt chúng. Các tần suất 1/2, 1/6, 1/52 với bất kỳ kết cục cho trước nào đều dựa trên các đối xứng cơ bản đó. Một đồng xu không cân đối hay một quân xúc xắc bị lệch có thể được tạo ra bằng cách chèn thêm trọng lượng; một lá bài thiên lệch có thể được tạo ra bằng cách đánh dấu tinh vi ở mặt sau nhằm tiết lộ giá trị của nó cho những ai đã biết dấu hiệu đó.
Còn có những cách lừa lọc khác nữa liên quan tới sự khéo léo của bàn tay, chẳng hạn như đánh tráo quân xúc xắc lệch vào và ra khỏi trò chơi trước khi mọi người nhận ra rằng lúc nào nó cũng cho kết cục là mặt 6. Nhưng cách “lừa đảo” an toàn nhất là chiến thắng bằng chiến lược, nó tuyệt đối trung thực, và chiến thắng là do nắm được ưu thế tốt hơn các đối thủ của mình. Theo một nghĩa nào đó, bạn có một nền tảng cao về đạo đức, nhưng bạn có thể cải thiện cơ may tìm ra một đối thủ ngây thơ phù hợp bằng việc lừa đảo không phải các ưu thế thật mà là ưu thế mà đối thủ của bạn trông đợi. Có nhiều ví dụ trong đó ưu thế thật khác xa ưu thế mà nhiều người phỏng đoán một cách tự nhiên.
Một ví dụ là trò chơi vương miện và cái neo, được chơi phổ biến trong giới thủy thủ Anh ở thế kỷ 18. Nó sử dụng ba quân xúc xắc, mỗi quân không mang các con số từ 1 đến 6 mà là sáu ký hiệu: một vương miện, một mỏ neo và bốn lá bài rô, bích, cơ và chuồn. Những ký hiệu này cũng được dán trên một tấm thảm. Người chơi đặt cược bằng cách để tiền trên thảm và tung ba quân xúc xắc. Nếu bất kỳ ký hiệu nào mà họ đã đặt cược hiện ra, nhà cái sẽ trả họ tiền cược, nhân với số quân xúc xắc có hiện ký tự đã được đặt cược. Chẳng hạn, nếu họ đặt 1 bảng cho vương miện, và hai vương miện xuất hiện, thì họ sẽ thắng 2 bảng thêm vào số tiền đặt cược của họ, còn nếu ba vương miện xuất hiện, họ sẽ giành được 3 bảng thêm vào tiền cược. Tất cả nghe có vẻ khá hợp lý, nhưng lý thuyết xác suất cho ta thấy rằng, nếu chơi trong thời gian dài thì một người chơi có thể thua 8% tiền đặt cược của mình.
Lý thuyết xác suất bắt đầu cất cánh khi nó thu hút được sự chú ý của Blaise Pascal. Pascal là con của một nhân viên thu thuế ở Rouen và là một đứa trẻ phi thường. Năm 1646, ông cải đạo sang phái Jansen, một giáo phái của công giáo La Mã mà Giáo hoàng Innocent X xếp vào dạng tà đạo năm 1655. trước đó, vào năm 1654, Pascal đã từng trải nghiệm cái mà ông gọi là sự “cải đạo” lần thứ hai, có lẽ là do tai nạn suýt chết khi những con ngựa kéo xe của ông ngã xuống cạnh cầu Neuilly và cỗ xe của ông suýt rơi khỏi cầu. Kể từ đó, hầu như các công trình của ông đều viết về triết học của tôn giáo. Nhưng ngay trước khi tai nạn xảy ra, ông và Fermat đã viết thư cho nhau để trao đổi về một vấn đề toán học có liên quan đến cờ bạc. Hiệp sĩ de Meré, một nhà văn Pháp, tự xưng là hiệp sĩ mặc dù ông không hề được phong tước này, là một người bạn của Pascal và ông đã đặt câu hỏi rằng tiền đặt cược trong một chuỗi các trò chơi may rủi sẽ được phân chia như thế nào nếu như cuộc chơi này bị dừng lại giữa chừng. Câu hỏi này không phải là mới; nó đã xuất hiện từ thời Trung cổ rồi. Cái mới ở đây là lời giải đáp cho nó. Trong quá trình trao đổi thư từ, Pascal và Fermat đã tìm ra câu trả lời đúng. Cùng với điều đó, họ đã tạo ra một ngành toán học mới: lý thuyết xác suất.
Khái niệm trung tâm trong lời giải của họ chính là thứ mà ngày nay chúng ta gọi là “kỳ vọng”. Trong một trò may rủi, đó là giá trị trung bình mà người chơi thu về trong một thời gian dài. Chẳng hạn, có thể thu về 92 xu trong trò chơi vương miện và mỏ neo với tiền đặt cược là 1 bảng. Sau khi cải giáo lần thứ hai, Pascal đã bỏ lại quá khứ cờ bạc ở phía sau, nhưng ông đã tận dụng sự giúp đỡ của nó trong một luận điểm triết học nổi tiếng, sự đặt cược của Pascal2. Như một người chống đối, Pascal giả định rằng một số người có lẽ đã xem sự tồn tại của Chúa là rất ít khả năng. Trong cuốn Các tư tưởng (Pensées) của mình, xuất bản năm 1669, Pascal đã phân tích các hệ quả từ quan điểm xác suất:
Chúng ta hãy thử cân cái được và cái mất trong việc đặt cược rằng Chúa [tồn tại]. Chúng ta hãy đánh giá hai cơ hội. Nếu bạn thắng, bạn sẽ được tất; nếu bạn thua, bạn sẽ mất tất. Vậy thì không nên lưỡng lự nữa mà hãy đặt cược rằng Ngài tồn tại... Ở đây có vô hạn cuộc sống hạnh phúc đời đời để mà được, một cơ hội thắng trước một số hữu hạn nguy cơ thua, và thứ mà bạn đặt cược cũng là hữu hạn. Và như vậy đề nghị của chúng tôi có một sức mạnh vô hạn khi chỉ có hữu hạn để đặt cược trong một trò chơi mà ở đó sự rủi ro của được và mất là như nhau, nhưng có vô hạn để được.
Lý thuyết xác suất đã trở thành lĩnh vực toán học hoàn chỉnh vào năm 1713, khi Jacob Bernoulli công bố cuốn Nghệ thuật của phỏng đoán (Ars Conjectandi ). Ông bắt đầu với “định nghĩa làm việc” thông thường của xác suất của một biến cố: xét về lâu dài, tỉ phần của các trường hợp mà sự kiện đó xảy ra gần như là tất cả thời gian. Tôi nói “định nghĩa làm việc” là bởi vì cách tiếp cận này đối với xác suất sẽ gặp khó khăn nếu bạn muốn thử làm cho nó trở thành cơ bản. Chẳng hạn, giả sử rằng tôi có một đồng xu chuẩn, và tôi tung nó liên tục. Phần lớn thời gian tôi sẽ thu được một dãy ngẫu nhiên các mặt sấp và ngửa, và nếu tôi tung nó đủ lâu tôi sẽ thu được mặt ngửa gần như trong một nửa thời gian. Tuy nhiên, hiếm khi tôi thu được mặt ngửa chính xác trong nửa thời gian: điều này là không thể nếu như tôi tung đồng xu một số lẻ lần chẳng hạn. Nếu tôi cố gắng sửa đổi định nghĩa bằng cách lấy cảm hứng từ giải tích, tức là xác suất thu được mặt ngửa là giới hạn của các mặt ngửa thu được khi số lần tung tiến ra vô hạn, thì tôi sẽ phải chứng minh rằng xác suất đó tồn tại. Nhưng đôi khi giới hạn đó không tồn tại. Ví dụ, giả sử rằng dãy các mặt ngửa (N) và sấp (S) thu được có dạng:
SNNSSSNNNNNNSSSSSSSSSSSS...
với một sấp, hai ngửa, ba sấp, sáu ngửa, mười hai sấp, và cứ thế - số lần xuất hiện các mặt tăng gấp đôi ở mỗi giai đoạn sau lần xuất hiện liên tiếp ba mặt sấp. Sau khi tung ba lần, tỉ lệ nhận được mặt ngửa là 2/3, sau sáu lần là 1/3, và sau 12 lần lại là 2/3, sau 24 lần là 1/3,... như vậy tỉ lệ này dao động qua lại giữa 2/3 và 1/3, và bởi vậy nó không có giới hạn xác định.
Đồng ý là một dãy kết cục như vậy khi tung đồng xu rất ít khả năng xảy ra, nhưng để định nghĩa “ít khả năng xảy ra” thì ta cần phải định nghĩa xác suất, mà đó lại chính là cái mà giới hạn nói trên được giả thiết là sẽ đạt tới. Nghĩa là logic của chúng ta là một vòng tròn luẩn quẩn. Vả lại, thậm chí nếu giới hạn đó tồn tại, thì nó có thể không phải là giá trị “đúng” 1/2. Một trường hợp đặc biệt xảy ra là đồng xu luôn ngửa, khi ấy giới hạn bằng 1. Lại một lần nữa, điều này gần như chẳng bao giờ xảy ra, nhưng...
Bernoulli đã quyết định tiếp cận vấn đề tổng thể theo hướng ngược lại. Xuất phát bằng cách định nghĩa đơn giản xác suất của mặt ngửa và sấp là số p nằm giữa 0 và 1. Đồng xu là chuẩn nếu p = 1/2 và lệch nếu nó nhận giá trị khác. Từ đây Bernoulli chứng minh một định lý cơ bản, luật của các số lớn. Đưa vào một quy tắc hợp lý để gán các giá trị xác suất cho một dãy các sự kiện lặp lại, luật số lớn phát biểu rằng, về lâu dài, ngoại trừ một phần nhỏ các phép thử trở nên nhỏ tùy ý, tỉ lệ ngửa thực sự tiến tới một giới hạn, và giới hạn đó là p . Về mặt triết học, định lý này chứng tỏ rằng bằng cách gán các xác suất - tức là các con số - theo một cách tự nhiên, cách giải thích “tỉ lệ xảy ra biến cố trong thời gian dài, trừ một số ngoại lệ hiếm hoi” là hợp thức. Như vậy, Bernoulli đã đưa ra quan điểm rằng các số được gán cho xác suất đã cung cấp một mô hình toán học nhất quán cho quá trình tung đồng xu liên tục.
Chứng minh của Bernoulli dựa trên một hình mẫu số học, một thứ đã quá quen thuộc với Pascal. Nó thường được gọi là tam giác Pascal, mặc dù ông không phải là người đầu tiên tìm ra nó. Các nhà sử học đã lần ra nguồn gốc của nó ở trong Chandas Shastra , một cuốn sách viết bằng chữ Phạn được gán cho Pingala, viết vào khoảng giữa các năm 500 và 200 TCN. Bản thảo gốc thì không còn nữa, nhưng công trình này được biết đến qua các bình luận bằng tiếng Hindu ở thế kỷ 10. Tam giác Pascal trông thế này:
trong đó tất cả các hàng đều bắt đầu và kết thúc bởi 1, và mỗi số trong hàng là tổng của hai số liên tiếp ngay bên trên nó. Chúng ta gọi đó là các hệ số nhị thức, bởi vì chúng phát sinh từ đại số của nhị thức (hai biến) (p + q)n và bạn có thể thấy tam giác Pascal xuất hiện ở hệ số của các số hạng khác nhau. Cụ thể là:
và tam giác Pascal được thấy như hệ số của các số hạng riêng rẽ.
Nhận thức then chốt của Bernoulli là ở chỗ nếu chúng ta tung đồng xu n lần, với xác suất thu được mặt ngửa là p , thì xác suất của một số lần tung cụ thể nhận được mặt ngửa là hệ số tương ứng của ( p + q ) n với q = 1 - p . Chẳng hạn, nếu tôi tung đồng xu ba lần, khi đó tám kết quả khả dĩ nhận được là:
với các nhóm được tôi chia theo số lần nhận được mặt ngửa. Như vậy, trong tổng số tám kết cục có thể nhận được, có:
1 nhóm với 3 mặt ngửa 3 nhóm với 2 mặt ngửa 3 nhóm với 1 mặt ngửa 1 nhóm với 0 mặt ngửa
Mối liên kết giữa kết quả này với các hệ số nhị thức không phải là sự trùng hợp ngẫu nhiên. Nếu bạn khai triển công thức đại số (N + S) 3 nhưng không rút gọn các số hạng đồng dạng lại, bạn sẽ thu được:
NNN + NNS + NSN + SNN + NSS + SNS + SSN + SSS
Rút gọn lại theo số lần thu được mặt ngửa ta được:
N 3 + 3N 2 S + 3NS 2 + S 3
Sau cùng, chỉ còn là vấn đề thay thế N và S bằng xác suất của nó, tương ứng là p hoặc q mà thôi.
Nhưng ngay cả trong trường hợp này, mỗi kết cục đặc biệt như NNN và SSS chỉ xảy ra một lần trên tám, và các kết cục thông thường hơn xuất hiện trong sáu kết cục còn lại. Để chứng minh luật số lớn của Bernoulli, ta phải cần tới một tính toán phức tạp hơn sử dụng các tính chất cơ bản của các hệ số nhị thức.
Các tiến bộ toán học thường xảy ra do sự thiếu hiểu biết. Khi các nhà toán học không biết làm thế nào để tính một thứ gì đó quan trọng, họ thường tìm cách rón rén tiếp cận nó một cách gián tiếp. Trong trường hợp chúng ta đang nói tới, vấn đề là tính toán các hệ số nhị thức. Đã đành là có một công thức tường minh, nhưng chẳng hạn nếu bạn muốn biết xác suất nhận được 42 mặt ngửa khi tung đồng xu 100 lần, bạn sẽ phải thực hiện 200 phép nhân và rút gọn một phân số rất phức tạp. (Cũng có cách làm tắt, nhưng vẫn rất rối rắm). Trong chưa đầy 1 giây, máy tính của tôi đã cho kết quả là
28.258.808.871.162.574.166.368.460.400 p 42 q 58
nhưng Bernoulli không có thứ xa xỉ ấy. Mà cũng chẳng ai có cho tới tận những năm 1960 và hệ thống đại số của máy tính còn chưa thực sự phổ biến rộng rãi mãi tới cuối những năm 1980.
Vì không thể tính toán trực tiếp như vậy, nên những hậu bối ngay sau Bernoulli đã cố gắng tìm ra những phép gần đúng (xấp xỉ) tốt. Vào khoảng năm 1730, Abraham De Moivre đã đề xuất một công thức xấp xỉ để tính các xác suất có liên quan với việc tung đi tung lại một đồng xu lệch.Cách làm này dãn tới khám phá hàm sai số hay phân bố chuẩn, thường được nhắc đến dưới cái tên “đường cong hình chuông” do hình dạng của nó. Dưới đây là điều ông đã chứng minh được. Phân bố chuẩn Φ( x ) với kỳ vọng và phương sai μ 2 được định nghĩa bởi công thức:
Khi đó với n lớn, xác suất nhận được m mặt ngửa sau khi tung đồng xu lệch n lần sẽ rất gần với Φ( x ) khi
x = m / n - p , μ = np , σ = npq
Ở đây, “kỳ vọng” có nghĩa là giá trị trung bình, còn “phương sai” là độ đo sự phân tán của dữ liệu - tức độ rộng của đường hình chuông. Căn bậc hai của phương sai, tức bản thân ơ, được gọi là độ lệch chuẩn. Đường cong trên hình 32 ( trái ) cho thấy sự phụ thuộc của Φ( x ) vào giá trị của x . Đường cong này trông hơi giống một quả chuông, từ đó mà có cái tên không chính thức nói trên. Đường cong hình chuông là một ví dụ của một phân bố xác suất; điều này có nghĩa là xác suất để nhận được dữ liệu nằm giữa hai giá trị đã cho bằng diện tích bên dưới đường cong và giữa hai đường thẳng đứng tương ứng với hai giá trị đó. Tổng diện tích nằm dưới đường cong hình chuông bằng 1, đó là nhờ hệ số mà ta không hề trông đợi.
Ý tưởng này có thể được nắm bắt dễ dàng thông qua một ví dụ cụ thể. Hình 32 ( phải ) là đồ thị biểu diễn xác suất thu được số mặt ngửa khác nhau khi tung một đồng xu chuẩn 15 lần (các thanh hình chữ nhật) cùng với đường cong xấp xỉ hình chuông.
Hình 32 Trái : Đường cong hình chuông. Phải : Nó xấp xỉ số mặt ngửa trong 15 lần tung một đồng xu chuẩn như thế nào.
Đường hình chuông dần có được địa vị mang tính biểu tượng khi nó bắt đầu làm sáng tỏ các dữ liệu không chỉ trong toán học thuần túy mà còn trong thực nghiệm khoa học xã hội. Năm 1835, một người Bỉ tên là Adolphe Quetelet đã đi tiên phong trong các phương pháp định lượng trong xã hội học. Ông đã thu thập và phân tích một số lượng lớn dữ liệu về tội phạm, tỉ lệ ly dị, tự tử, sinh đẻ, tử vong, chiều cao và cân nặng con người, v.v. - những biến mà không ai nghĩ sẽ phù hợp với một quy luật toán học nào đó, bởi vì, các nguyên nhân đằng sau chúng quá phức tạp và liên quan đến sự lựa chọn của con người. Chẳng hạn, sự đau khổ về tình cảm đã đẩy người ta tới tự sát. Nghe có vẻ hơi khôi hài khi nghĩ rằng thứ đó lại có thể được quy về một công thức đơn giản.
Những phản đối đó sẽ đúng khi bạn muốn dự đoán chính xác xem ai sẽ tự tử, và tự tử khi nào. Nhưng khi Quetelet tập trung vào các vấn đề thống kê, ví dụ như tỉ lệ tự tử trong các nhóm người khác nhau, ở các vùng miền khác nhau, và trong các năm khác nhau, ông bắt đầu nhận ra các hình mẫu. Và chúng đã gây ra tranh cãi: nếu bạn dự đoán ở Paris năm tới sẽ có sáu vụ tự tử, thì làm sao điều đó có ý nghĩa nếu mỗi người trong số đó đều có ý chí tự do? Tất cả họ đều có thể thay đổi suy nghĩ của mình. Nhưng dân số tạo thành từ những người tự tử không định rõ trước, nó xuất hiện như là hệ quả của những lựa chọn không phải chỉ bởi riêng những người tự tử, mà còn bởi những người đã nghĩ đến việc đó nhưng không làm. Con người thực hiện ý chí tự do trong bối cảnh của nhiều thứ khác nữa có ảnh hưởng tới cái mà họ tự do quyết định: ở đây có những ràng buộc bao gồm những vấn đề về tài chính, vấn đề quan hệ, trạng thái tinh thần, nền tảng tôn giáo... Trong mọi trường hợp, đường cong hình chuông không đưa ra được những dự đoán chính xác, mà nó chỉ khẳng định con số nào thường xảy ra nhất mà thôi. Năm hay bảy vụ tự tử có thể xảy ra, để lại rất nhiều chỗ cho những người khác thực thi ý chí tự do và thay đổi ý nghĩ của mình.
Rồi một ngày, cuối cùng dữ liệu sẽ chiến thắng, vì bất cứ lý do gì, con người trong tập thể vẫn hành xử dễ dự đoán hơn là các cá nhân. Có lẽ ví dụ đơn giản nhất là về chiều cao. Khi Quetelet vẽ đồ thị tỉ lệ số người với chiều cao cho trước, ông đã nhận được một đường cong hình chuông rất đẹp, thể hiện trên hình 33. Ông nhận được cùng một đường cong như thế cho nhiều biến xã hội khác.
Hình 33 Đồ thị biểu diễn số người (trục tung) có chiều cao đã cho.
Quá ấn tượng bởi kết quả mà mình thu được, Quetelet đã viết hẳn một cuốn sách Chuyên luận về con người và sự phát triển các năng lực (Sur l’homme et le développement de ses facultés ) xuất bản năm 1835. Trong đó, ông giới thiệu về khái niệm “người trung bình”, một cá thể tưởng tượng mà tất cả các khía cạnh đều có giá trị trung bình. Từ lâu người ta đã biết rằng lý thuyết này không hoàn toàn có hiệu lực: “người” trung bình - tức là, một người, như vậy tính toán bao gồm cả phụ nữ và đàn ông - có (hơi ít hơn) một vú, một tinh hoàn, 2,3 con, v.v. Tuy nhiên Quetelet nhìn người trung bình của ông như một sự công bằng xã hội, không chỉ là một hư cấu toán học mang tính khơi gợi. Nó không đến mức quá ngó ngẩn. Chẳng hạn, nếu sức khỏe con người được chia đều cho tất cả, thì mọi người đều có sức khỏe trung bình. Đây không phải là một mục tiêu thực tế, trừ khi xảy ra những thay đổi khổng lồ về xã hội, nhưng một số người với quan điểm quân bình mạnh mẽ có lẽ sẽ bảo vệ (xem) nó như là một mục tiêu đáng ao ưóc.
Đường cong hình chuông nhanh chóng trở thành một biểu tượng trong lý thuyết xác suất, đặc biệt là thống kê, một nhánh ứng dụng của nó. Có hai nguyên nhân chính: việc tính toán đường cong hình chuông tương đối đơn giản, và còn có một nguyên nhân lý thuyết cho việc nó cũng xuất hiện trong thực hành. Một trong những nguồn gốc chính cho lối tư duy này là thiên văn học ở thế kỷ 18. Các dữ liệu quan sát thường bị sai lệch do những thay đổi nhỏ trong máy móc, do lỗi của người quan sát, hay đơn giản là do sự chuyển động của các dòng không khí trong khí quyển. Các nhà thiên văn thời đó muốn quan sát các hành tinh, sao chổi và các tiểu hành tinh, và tính toán quỹ đạo của chúng, điều này đòi hỏi phải tìm ra một quỹ đạo phù hợp với dữ liệu nhất. Nhưng sự phù hợp này không bao giờ là hoàn hảo cả.
Giải pháp thực tiễn cho vấn đề này đã xuất hiện trước. Đại thể là thế này: Vẽ một đường thẳng qua vùng dữ liệu sao cho tổng sai số nhỏ nhất có thể. Sai số ở đây phải được coi là một số dương, và cách dễ dàng để nhận được điều này trong khi vẫn giữ không phương hại gì đến đại số ở đây, là bình phương các sai số đó. Như vậy, sai số toàn phần là tổng các bình phương độ lệch của các quan sát so với mô hình đường thẳng đó, và đường thẳng mong muốn sẽ làm tối thiểu hóa tổng đó. Năm 1805, nhà toán học người Pháp Adrien-Marie Legendre đã tìm ra một công thức đơn giản cho đường thẳng này, khiến cho việc tính toán nó trở nên dễ dàng hơn. Kết quả được gọi là phương pháp bình phương tối thiểu. Hình 34 minh họa phương pháp này cho các dữ liệu nhân tạo liên hệ stress (được đo qua bảng các câu hỏi) với huyết áp. Đường thẳng trên hình vẽ, được tìm ra nhờ sử dụng công thức của Legendre, là phù hợp nhất với độ đo sai số bình phương. Trong mười năm, phương pháp bình phương tối thiểu đã trở thành phương pháp chuẩn của các nhà thiên văn Pháp, Phổ và Ý. Trong hai mươi năm sau đó, nó cũng trở thành chuẩn mực ở Anh.
Hình 34 Dùng phương pháp bình phương tối thiểu để’ liên hệ huyết áp với stress. Các vòng tròn nhỏ: dữ liệu. Đường liền nét: đường thẳng phù hợp nhất.
Gauss đã biến phương pháp bình phương tối thiểu thành nền tảng trong tác phẩm của ông về cơ học thiên thể. Ông bước vào lĩnh vực này từ năm 1801, mở đầu bằng việc dự đoán thành công sự quay trở lại của tiểu hành tinh Ceres sau khi nó bị ẩn trong ánh sáng chói lòa của Mặt Trời, trong khi hầu hết các nhà thiên văn khác đều cho rằng các dữ liệu hiện có là quá hạn chế. Thành công này đã giúp danh tiếng toán học của Gauss vang xa hơn trong công chúng, và mang đến cho ông danh hiệu giáo sư thiên văn học trọn đời của đại học Gỏttingen. Gauss đã không sử dụng phương pháp bình phương tối thiểu trong tiên đoán đặc biệt này: những tính toán của ông quy về giải một phương trình đại số bậc tám mà ông đã tìm ra nghiệm nhờ một phương pháp số được khám phá ra một cách đặc biệt. Nhưng trong các công trình sau đó của ông, đỉnh cao là tác phẩm Lý thuyết chuyển động của các thiên thể theo các quỹ đạo conic quanh Mặt Trời (Theoria Motus Corporum Coelestium in Sectionibus Conicis Solem Ambientum ) công bố năm 1809, ông đã đặc biệt nhấn mạnh đến phương pháp bình phương tối thiểu. Ông cũng khẳng định rằng ông đã phát triển ý tưởng này và sử dụng nó 10 năm trước Legendre, làm mọi thứ rối lên đôi chút. Tuy nhiên, điều này rất nhiều khả năng là đúng, và cách chứng minh của Gauss cho phương pháp này cũng khá khác biệt. Legendre coi đó là bài toán làm khóp đường cong, trong khi Gauss lại nhìn nhận nó dưới góc độ làm khóp một phân bố xác suất. Sự biện minh của ông cho công thức này giả định rằng các dữ liệu mà đường thẳng này phải làm khóp tuân theo một đường hình chuông.
Vẫn còn phải biện minh cho sự biện minh này. Tại sao các sai số do quan sát lại phải tuân theo phân bố chuẩn? Năm 1810, Laplace đã đưa ra một câu trả lời đáng ngạc nhiên xuất phát từ thiên văn học. Cách làm chuẩn mực trong rất nhiều ngành khoa học là: cùng một quan sát được thực hiện nhiều lần, độc lập với nhau, và sau đó lấy giá trị trung bình. Vì vậy, sẽ là rất tự nhiên nếu ta mô hình hóa phương pháp này bằng toán học. Laplace sử dụng phép biến đổi Fourier (xem Chương 9) để chứng minh rằng, kết quả trung bình của nhiều quan sát được mô tả bằng đường cong hình chuông, ngay cả nếu các quan sát riêng lẻ không như thế. Kết quả của ông, có tên là định lý giới hạn trung tâm, là một bước ngoặt lớn trong xác suất và thống kê, vì nó đã cung cấp một sự biện minh về mặt lý thuyết cho việc sử dụng phân bố ưa thích của các nhà toán học, đường cong hình chuông, trong việc phân tích các sai số quan sát 3 .
Định lý giới hạn trung tâm lựa chọn đường cong hình chuông như là một phân bố xác suất duy nhất phù hợp với kỳ vọng của rất nhiều quan sát lặp đi lặp lại. Nhờ vậy mà nó có tên là “phân bố chuẩn”, và được coi là lựa chọn mặc định cho một phân bố xác suất, không chỉ vì phân bố chuẩn có những tính chất toán học thú vị, mà còn vì có một lý do vững chắc cho rằng nó đã mô hình hóa được các dữ liệu thực. Sự tổ hợp các thuộc tính này đã tỏ ra rất hấp dẫn đối với các nhà khoa học có mong muốn hiểu thấu các hiện tượng xã hội, và nó đã cuốn hút Quetelet, bởi vì nó đã cung cấp một cách thức để phân tích dữ liệu từ những hồ sơ lưu trữ. Năm 1865, Francis Galton đã nghiên cứu về mối liên quan giữa chiều cao của trẻ em và cha mẹ chúng. Đó là một phần của mục tiêu rộng lớn hơn: tìm hiểu về tính di truyền - các đặc tính của con người di truyền từ cha mẹ tới con cái như thế nào. Thật trớ trêu, định lý giới hạn trung tâm của Laplace ngay từ đầu đã khiến Galton nghi ngờ về sự tồn tại của kiểu kế thừa này. Và ngay cả khi nó tồn tại, sẽ rất khó chứng minh bởi vì định lý giới hạn trung tâm là một con dao hai lưỡi. Quetelet đã tìm thấy một đường cong hình chuông rất đẹp cho chiều cao, nhưng dường như lại ngụ ý rất ít về những nhân tố khác nhau có ảnh hưởng đến chiều cao, bởi vì định lý giới hạn trung tâm cho dù thế nào cũng tiên đoán một phân bố chuẩn, bất kể phân bố của những nhân tố kia là thế nào. Ngay cả nếu những đặc tính của cha mẹ cũng nằm trong những nhân tố ấy, thì chúng cũng sẽ bị lấn át bởi tất cả những nhân tố khác như dinh dưỡng, sức khỏe, v.v. Tuy nhiên, đến năm 1889, Galton đã tìm được cách thoát ra khỏi tình thế lưỡng nan này. Cách chứng minh định lý tuyệt vời của Laplace dựa trên việc lấy trung bình những ảnh hưởng của rất nhiều nhân tố khác nhau, nhưng chúng đều phải thỏa mãn một số điều kiện chặt chẽ. Năm 1875, Galton đã mô tả những điều kiện này là “rất thiếu tự nhiên”, và lưu ý rằng những ảnh hưởng được lấy trung bình này
đều phải tác dụng độc lập với nhau (1), tất cả phải bình đẳng [tức là đều có cùng phân bố xác suất] (2), tất cả những nhân tố thêm vào được xử lý như những khả năng thay thế đơn giản “trên trung bình” hoặc “dưới trung bình” (3); và được tính toán dựa trên giả định rằng các biến gây ảnh hưởng là nhiều vô hạn (4)....
Trong những điều kiện nói trên, không có điều kiện nào áp dụng được cho sự di truyền của con người. Điều kiện (4) tương đương với giả định của Laplace rằng số các nhân tố được cộng thêm vào tiến ra vô hạn, như vậy nói “nhiều vô hạn” là hơi phóng đại lên một chút; tuy nhiên, cái mà toán học thiết lập là để nhận được một phép gần đúng tốt cho phân bố chuẩn, bạn phải tổ hợp một lượng lớn các nhân tố. Mỗi nhân tố đó đóng góp một phần nhỏ vào giá trị trung bình: chẳng hạn, có một trăm nhân tố thì mỗi nhân tố đóng góp một phần trăm giá trị của nó. Galton gọi những nhân tố như thế là “nhỏ nhặt”. Mỗi nhân tố tự nó chẳng có tác dụng gì đáng kể.
Có một lối thoát tiềm tàng, và Galton đã nắm bắt được. Định lý giới hạn trung tâm cung cấp một điều kiện đủ để cho một phân bố là chuẩn, chứ không phải là điều kiện cần. Ngay cả khi những giả thiết của nó không được thỏa mãn, thì phân bố được quan tâm có thể vẫn là phân bố chuẩn vì nhiều lý do khác . Nhiệm vụ của Galton là tìm ra những lý do ấy là gì. Để có hy vọng về mối liên hệ với sự di truyền thì những nguyên nhân đó phải áp dụng cho một tổ hợp gồm một ít các ảnh hưởng lớn và khác loại, chứ không phải cho một số lớn những ảnh hưởng không đáng kể. Ông đã chậm rãi mò mẫm lời giải và tìm ra nó thông qua hai thí nghiệm, đều được thực hiện vào năm 1877. Một là thiết bị mà ông gọi là quincunx , trong đó các viên bi rơi xuống một mặt dốc khi nảy ra khỏi một mảng chông, với cùng một xác suất đi sang trái hoặc phải. Theo lý thuyết, các viên bi sẽ chất đống ở đáy dốc theo phân bố nhị thức, một xấp xỉ rời rạc của phân bố chuẩn, và do vậy chúng sẽ - và thực ra đã - tạo thành một đống gần giống hình chuông, như hình 32 ( phải ). Cái nhìn sâu sắc và then chốt của Galton đó là tưởng tượng tạm dừng các viên bi khi chúng đang lăn xuống trên đoạn dốc. Chúng vẫn tạo thành một đường cong hình chuông, nhưng sẽ hẹp hơn hình chuông cuối cùng. Tưởng tượng rằng ta thả ra chỉ một ngăn các viên bi. Nó sẽ rơi xuống đáy, và trải ra thành một đường cong hình chuông nhỏ. Tình hình cũng như thế đối với một ngăn bất kỳ nào khác. Và điều đó có nghĩa rằng, đường cong hình chuông lớn cuối cùng có thể được coi là tổng của rất nhiều những đường cong hình chuông nhỏ. Đường cong hình chuông này sẽ tự tái lập khi một vài nhân tố, mỗi nhân tố tuân theo đường cong hình chuông riêng biệt của bản thân mình, được kết hợp lại với nhau.
Lý lẽ đanh thép đã xuất hiện khi Galton trồng đậu ngọt Hà Lan. Năm 1875, ông phân phối giống cho một vài người bạn. Mỗi người nhận 70 hạt giống, nhưng người thì nhận được hạt nhẹ, người thì nhận được hạt nặng hơn một chút, và cứ như thế. Năm 1877, ông đo trọng lượng hạt giống của các thế hệ tiếp sau. Mỗi nhóm đều theo phân bố chuẩn, nhưng giá trị trung bình của trọng lượng thì khác nhau trong mỗi trường hợp khi được so sánh với trọng lượng của mỗi hạt giống trong nhóm ban đầu. Khi ông tổ hợp dữ liệu của tất cả các nhóm, kết quả nhận được lại là phân bố chuẩn, nhưng phương sai thì lớn hơn, tức đường cong hình chuông rộng hơn. Lại một lần nữa, điều này gợi ý rằng tổ hợp của một vài đường cong hình chuông nhỏ sẽ dẫn tới một đường cong hình chuông khác. Galton đã truy ngược lại nguyên nhân toán học của điều này. Giả sử rằng hai biến ngẫu nhiên đều có phân bố chuẩn nhưng không nhất thiết phải có cùng giá trị kỳ vọng hay cùng phương sai. Khi đó tổng của chúng cũng là phân bố chuẩn, với kỳ vọng của tổng bằng tổng các kỳ vọng, và phương sai bằng tổng các phương sai. Hiển nhiên, điều này cũng đúng đối với tổng của ba, bốn, hay nhiều hơn nữa các biến ngẫu nhiên có phân bố chuẩn.
Định lý này vẫn có hiệu lực khi một số lượng nhỏ các nhân tố được kết hợp lại, mỗi nhân tố có thể được nhân với một hằng số nào đó, và như vậy nó cũng có thể được áp dụng cho bất kỳ một tổ hợp tuyến tính nào. Phân bố chuẩn vẫn dùng được ngay cả khi mỗi nhân tố có ảnh hưởng lớn. Bây giờ thì Galton có thể nhận biết kết quả này được áp dụng cho sự di truyền thế nào. Giả sử biến ngẫu nhiên cho bởi chiều cao của một đứa trẻ là một tổ hợp nào đó của các biến ngẫu nhiên tương ứng cho chiều cao của cha mẹ, và chúng có phân bố chuẩn. Giả sử rằng nhân tố di truyền là cộng tính, thì chiều cao của đứa trẻ cũng sẽ có phân bố chuẩn.
Galton viết ra các ý tưởng của mình vào năm 1889 dưới nhan đề Di truyền tự nhiên (Natural Inheritance) . Đặc biệt, ông đã bàn về một ý tưởng mà ông gọi là hồi quy. Khi một cặp vợ chồng một cao một thấp có con, thì chiều cao trung bình của lũ trẻ sẽ ở tầm trung, và thực tế, nó thường là giá trị trung bình chiều cao của cha mẹ. Phương sai tương ứng cũng là phương sai trung bình, nhưng phương sai của cặp cha mẹ xấp xỉ nhau, do vậy phương sai cũng không thay đổi bao nhiêu. Khi nhiều thế hệ kế tiếp qua đi, chiều cao trung bình sẽ “hồi quy” về một giá trị trung gian cố định, trong khi phương sai sẽ gần như không thay đổi. Do vậy đường cong hình chuông nguyên thủy của Quetelet có thể tồn tại từ thế hệ này sang thế hệ kế tiếp. Đỉnh của nó sẽ nhanh chóng an bài ở một giá trị cố định, kỳ vọng toàn phần, trong khi chiều rộng của nó vẫn giữ nguyên. Như vậy mỗi thế hệ kế tiếp sẽ có cùng tính đa dạng về chiều cao, bất kể việc hồi quy về giá trị kỳ vọng. Tính đa dạng có thể được duy trì thông qua các cá thể hiếm hoi không thể hồi quy và tự duy trì trong một quần thể đủ lớn.
với vai trò trung tâm của đường cong hình chuông vốn gắn bó chặt chẽ với những thứ mà ở thời kỳ đó được coi là những nền tảng vững chắc, các nhà thống kê đã có thể xây dựng dựa trên những hiểu biết sâu sắc của Galton và những người làm việc trong các lĩnh vực khác có thể áp dụng những kết quả này. Khoa học xã hội là một ngành được hưởng lợi sóm, nhưng sinh học đã nối tiếp ngay sau đó, và khoa học vật lý đã vượt lên, nhờ Legendre, Laplace, và Gauss. Chẳng mấy chốc toàn bộ bộ công cụ của thống kê đã sẵn sàng cho những ai muốn rút ra những hình mẫu từ các dữ liệu. Tôi sẽ chỉ tập trung vào một kỹ thuật thường xuyên được sử dụng để xác định hiệu quả của thuốc và phác đồ điều trị, cùng với nhiều ứng dụng khác. Kỹ thuật này được gọi là kiểm định giả thuyết, và mục tiêu của nó là đánh giá ý nghĩa của các hình mẫu biểu kiến trong dữ liệu. Kỹ thuật này do bốn người xây dựng nên: đó là ba người Anh Ronald Aylmer Fisher, Karl Pearson, và Egon con trai ông, cùng với một người Ba Lan sinh ở Nga nhưng hầu hết thời gian sống ở Mỹ, Jerzy Neyman. Tôi sẽ tập trung vào Fisher, người đã phát triển những ý tưởng cơ bản khi ông làm việc với tư cách một nhà thống kê nông nghiệp ở Trạm Thí nghiệm Rothamstead, có nhiệm vụ phân tích các giống cây trồng mới.
Giả sử bạn đang gây giống một loại khoai tây mới. Dữ liệu của bạn gợi ý rằng loại giống này kháng sâu bệnh tốt hơn. Nhưng toàn bộ các dữ liệu này chịu sai số do nhiều nguồn khác nhau gây ra, do vậy bạn không thể hoàn toàn tin tưởng rằng những con số đó củng cố cho kết luận vừa nêu ở trên của bạn - hẳn là không thể tin tưởng như một nhà vật lý, người đã thực hiện các phép đo rất chính xác và loại bỏ được hầu hết các sai số. Fisher nhận thấy rằng vấn đề then chốt là phải phân biệt được sự sai khác thực sự với những sai khác phát sinh thuần túy do ngẫu nhiên, và rằng để làm điều đó, ta phải đặt câu hỏi: sự sai khác đó có thể sẽ như thế nào nếu chỉ có ngẫu nhiên tham gia mà thôi.
Chẳng hạn, giả sử rằng giống khoai tây mới này có sức đề kháng gấp đôi, theo nghĩa là tỉ lệ giống mới sống sót sau dịch bệnh lớn gấp đôi tỉ lệ giống cũ. Có thể hình dung được rằng hiệu ứng này là do ngẫu nhiên, và bạn có thể tính được xác suất của nó. Thực tế, thứ bạn tính chính là xác suất của một kết quả chí ít cũng cực đoan như kết quả quan sát thấy từ các số liệu. Vậy trường hợp tỉ lệ sống sót của giống mới sau dịch bệnh gấp đôi tỉ lệ sống sót của giống cũ sẽ xảy ra với xác suất là bao nhiêu? Thậm chí những tỉ lệ lớn hơn cũng được xét đến ở đây, bởi vì xác suất nhận được chính xác tỉ số gấp đôi bị chặn xuống còn rất nhỏ. Khoảng giá trị của kết quả mà bạn tính đến càng rộng thì ảnh hưởng của ngẫu nhiên càng có khả năng xảy ra hơn, vì thế bạn có thể vững tin hơn vào kết luận của mình nếu tính toán của bạn gợi ý rằng đó không phải là kết quả của ngẫu nhiên. Nếu xác suất được rút ra từ tính toán này thấp, chẳng hạn là 0,05, thì kết quả khó có thể là ngẫu nhiên được, và nó được cho là có ý nghĩa ở mức 95%. Nếu xác suất tính được thấp hơn, chẳng hạn là 0,01, thì kết quả cực kỳ không thể là ngẫu nhiên, và nó được cho là có ý nghĩa ở mức 99%. Những tỉ lệ phần trăm ấy chỉ ra rằng nếu chỉ do ngẫu nhiên thôi, thì kết quả sẽ không thể cực đoan như kết quả mà bạn quan sát được trong 95% hay 99% các phép thử.
Fisher mô tả phương pháp của mình như một phép so sánh giữa hai giả thuyết phân biệt: giả thuyết cho rằng các dữ liệu là có ý nghĩa ở mức đã nói và cái gọi là giả thuyết-không cho rằng các kết quả nhận được là do ngẫu nhiên. Ông khăng khăng rằng phương pháp của ông không nên được giải thích như sự xác nhận giả thuyết cho rằng các dữ liệu là có ý nghĩa; mà nó nên được giải thích như sự bác bỏ giả thuyết-không. Tức là, nó cung cấp cho ta bằng chứng chống lại khẳng định các số liệu không có ý nghĩa.
Điều này xem ra là một sự phân biệt rất tinh tế, vì bằng chứng chống lại khẳng định các số liệu không có ý nghĩa chắc chắn sẽ được tính đến như bằng chứng ủng hộ khẳng định là nó có ý nghĩa. Tuy nhiên, điều này không đúng hoàn toàn, và lý do ở đây là giả thuyết-không còn có một giả định phụ gắn sẵn trong nó. Để tính xác suất mà kết quả chí ít cũng là do ngẫu nhiên, bạn cần có một mô hình lý thuyết. Cách đơn giản nhất để có một mô hình như vậy là giả định một phân bố xác suất cụ thể. Giả định này chỉ áp dụng trong mối liên kết với giả thuyết-không, bởi vì đó là cái mà bạn sử dụng để tính tổng. Bạn không giả định là dữ liệu tuân theo phân bố chuẩn. Nhưng phân bố mặc định cho giả thuyết-không là chuẩn: đường cong hình chuông.
Mô hình gắn vào có một hệ quả quan trọng, mà việc “vứt bỏ giả thuyết-không” có xu hướng triệt tiêu nó. Giả thuyết- không cho rằng “dữ liệu sinh bởi ngẫu nhiên”. Do vậy thật quá dễ để đọc mệnh đề trên là “vứt bỏ các dữ liệu do ngẫu nhiên”, mà điều này đến lượt mình có nghĩa là bạn chấp nhận rằng chúng không phải là do ngẫu nhiên. Mặc dù vậy, thực tế, giả thuyết-không nói rằng dữ liệu là do ngẫu nhiên và ảnh hưởng của ngẫu nhiên tuân theo phân bố chuẩn, như vậy có hai nguyên nhân để vứt bỏ giả thuyết-không: các số liệu không do ngẫu nhiên hoặc chúng không theo phân bố chuẩn. Nguyên nhân thứ nhất củng cố ý nghĩa của số liệu, nhưng nguyên nhân thứ hai thì không. Nó nói rằng bạn đã chọn sai mô hình thống kê.
Trong các công trình về nông nghiệp của Fisher, nhìn chung có nhiều bằng chứng về phân bố chuẩn trong dữ liệu. Do vậy sự khác biệt mà tôi nói tới ở trên thực ra không quan trọng. Mặc dù vậy, trong nhiều ứng dụng khác của kiểm định giả thuyết, nó có thể là quan trọng. Nói rằng các tính toán bác bỏ giả thuyết-không có ưu điểm là đúng, nhưng bởi vì giả thiết phân bố chuẩn không được nhắc đến một cách tường minh nên rất dễ quên, vì vậy bạn cần kiểm tra tính chuẩn của phân bố của dữ liệu trước khi bạn kết luận rằng những kết quả bạn thu được có ý nghĩa thống kê. Khi phương pháp này ngày càng được nhiều người sử dụng, những người đã được huấn luyện để tìm tính tổng quát nhưng lại không biết các giả thiết đằng sau chúng, thì giả định sai lầm rằng phép kiểm định đã chỉ ra rằng dữ liệu của bạn là có ý nghĩa càng có nguy cơ cao xảy ra. Đặc biệt khi phân bố chuẩn đã trở thành một giả thiết mặc định tự động.
Trong ý thức của công chúng, thuật ngữ “đường cong hình chuông” được gắn chặt với cuốn sách gây tranh cãi, đó là cuốn Đường cong hình chuông (The Bell Curve) xuất bản năm 1994 của hai người Mỹ, nhà tâm lý Richard J. Herrnstein và nhà khoa học chính trị Charles Murray. Chủ đề chính của cuốn sách là mối liên hệ được tuyên bố giữa trí thông minh, đo bởi chỉ số thông minh (IQ), và các biến số xã hội như thu nhập, nghề nghiệp, tỉ lệ thụ thai và tội ác. Các tác giả lập luận rằng chỉ số IQ tiên đoán những biến số trên tốt hơn là địa vị xã hội và kinh tế của cha mẹ hay trình độ giáo dục. Nguyên nhân gây ra tranh cãi và những lập luận liên quan rất rối rắm. Một vài nét phác họa không thể mang lại tính công bằng cho cuộc tranh luận, nhưng những vấn đề đó đưa ta quay trở lại với Quetelet và xứng đáng được nhắc đến.
Sự tranh cãi là điều không thể tránh được, bất kể ưu điểm hay nhược điểm học thuật của cuốn sách thế nào, bởi vì nó đụng chạm đến một vấn đề rất nhạy cảm: mối liên hệ giữa chủng tộc và trí tuệ. Các bản tin truyền thông có xu hướng nhấn mạnh đề xuất nói rằng những khác biệt về IQ phần lớn là do nguồn gốc gen, nhưng cuốn sách đã thận trọng hơn về mối liên hệ này, nó đã để ngỏ sự tương tác giữa gen, môi trường và trí tuệ. Một vấn đề gây tranh cãi khác là phân tích ngụ ý rằng sự phân tầng xã hội ở Hoa Kỳ (và thực tế ở nhiều nơi khác nữa) đã phát triển rất nhanh trong suốt thế kỷ 20, nguyên nhân chính vẫn là sự khác biệt về trí tuệ. Còn một nguyên nhân khác nữa là chuỗi các khuyến nghị về chính sách để xử lý vấn đề bị cáo buộc này. Một trong số đó là giảm thiểu sự di cư, vì theo cuốn sách khẳng định thì điều đó làm giảm chỉ số IQ trung bình. Có lẽ gây tranh cãi nhất là đề xuất cần ngừng các chính sách phúc lợi xã hội, chính sách được cho là khuyến khích các phụ nữ nghèo sinh con.
Trớ trêu thay, ý tưởng này lại bắt nguồn từ chính Galton. Cuốn sách xuất bản năm 1869 của ông nhan đề Thiên tài di truyền (Hereditary Genius) đã được viết dựa trên các công trình trước đó nhằm phát triển ý tưởng cho rằng “các khả năng tự nhiên của con người có được từ di truyền chịu đúng những hạn chế như là những đặc điểm về hình thức và thể chất của toàn bộ thế giới hữu cơ. Do đó... việc tạo ra một chủng tộc những người có trí thông minh cao thông qua hôn nhân hợp pháp qua vài thế hệ là hoàn toàn khả thi.” Ông khẳng định rằng khả năng sinh sản của những người kém trí tuệ hơn thường là cao hơn, nhưng tránh đưa ra bất kỳ gợi ý nào về sự chọn lọc có chủ ý thiên về trí tuệ. Thực tế, ông bày tỏ hy vọng rằng xã hội sẽ thay đổi để những người thông minh hơn hiểu được sự cần thiết của việc họ phải có nhiều con hơn.
Đối với nhiều người, đề xuất của Herrnstein và Murray về việc thiết lập lại hệ thống phúc lợi khá gần gũi với phong trào ưu sinh đầu thế kỷ 20, trong đó 60.000 người Mỹ bị triệt sản do bị cho là ốm đau về mặt tinh thần. Ưu sinh trở nên mất uy tín trầm trọng khi nó liên quan với phát xít Đức và nạn diệt chủng, và rất nhiều những hoạt động của nó giờ đây được coi là vi phạm luật nhân quyền, trong nhiều trường hợp thậm chí còn là tội ác chống lại nhân loại. Đề xuất chọn lọc dòng dõi con người vốn đã được nhìn nhận một cách rộng rãi là mang tính phân biệt chủng tộc. Nhiều nhà khoa học tán thành những kết luận khoa học của cuốn sách nhưng chống lại tính phân biệt chủng tộc của nó; một số người trong đó vẫn ít tin tưởng vào các đề xuất chính sách.
Đường cong hình chuông khởi xướng một cuộc tranh luận dài hơi về các phương pháp được sử dụng để biên soạn dữ liệu, về các phương pháp toán học được sử dụng để phân tích chúng, về sự giải thích các kết quả, và những đề xuất về chính sách dựa trên những giải thích đó. Một nhóm công tác được thành lập bởi Hiệp hội Tâm lý học Mỹ kết luận rằng một số điểm trong cuốn sách là đúng đắn: điểm số IQ là một chỗ dựa tốt để tiên đoán thành tựu học thuật, nó có tương quan với địa vị nghề nghiệp, và không có sự khác biệt về thành tích giữa nam và nữ. Mặt khác, bản báo cáo của nhóm cũng tái khẳng định rằng cả gen và môi trường đều có ảnh hưởng đến IQ và họ không tìm thấy bằng chứng quan trọng nào nói rằng những khác biệt về điểm số IQ trên phương diện sắc tộc được quyết định bởi yếu tố di truyền.
Những ý kiến phê bình khác lập luận rằng có các sai sót trong phương pháp luận khoa học, chẳng hạn như đã bỏ qua những số liệu bất lợi, và rằng việc nghiên cứu và một số hưởng ứng đối với nó, ở một mức độ nào đó, có thể có động lực từ chính trị. Chẳng hạn, đúng là sự phân tầng xã hội đã tăng một cách đột ngột ở Mỹ, nhưng có thể lý luận rằng nguyên nhân chính là sự từ chối nộp thuế của những người giàu, chứ không phải là do những khác biệt về trí tuệ. Cũng có sự thiếu nhất quán giữa những vấn đề bị cáo buộc và giải pháp được đề xuất. Nếu sự nghèo đói khiến con người có nhiều con cái hơn, và bạn tin rằng đó là một điều xấu, thì thử hỏi tại sao bạn lại muốn làm cho họ thậm chí còn nghèo khổ hơn?
Một phần quan trọng của nền tảng mà thường bị lờ đi, đó là định nghĩa của IQ. Không phải là thứ có thể đo được một cách trực tiếp như là chiều cao hay cân nặng, IQ được suy ra một cách thống kê từ các bài trắc nghiệm. Đối tượng kiểm tra được đưa cho các câu hỏi và điểm số của họ được phân tích nhờ sử dụng một nhánh của phương pháp bình phương tối thiểu gọi là phân tích phương sai. Giống như phương pháp bình phương tối thiểu, kỹ thuật này giả định rằng dữ liệu tuân theo phân bố chuẩn, và nó tìm cách cô lập các nhân tố quyết định lượng biến thiên lớn nhất trong dữ liệu, và do đó chúng là các nhân tố quan trọng nhất trong việc mô hình hóa dữ liệu. Năm 1904, nhà tâm lý học Charles Spearman đã áp dụng kỹ thuật này cho một số bài trắc nghiệm khác nhau. Ông nhận thấy rằng điểm số mà các đối tượng nhận được ở các bài trắc nghiệm khác nhau thực ra có tương quan mạnh với nhau; tức là nếu ai đó làm tốt một bài trắc nghiệm nào đó, thì họ sẽ có xu hướng làm tốt tất cả các bài kiểm tra. Về mặt trực giác, có vẻ như họ đang đo đạc cùng một thứ. Phân tích của Spearman chỉ ra rằng một thừa số chung duy nhất - một biến toán học, mà ông gọi là g , viết tắt của general intelligence (trí tuệ tổng quát) - giải thích được hầu như toàn bộ mối tương quan này. IQ là một phiên bản đã được tiêu chuẩn hóa của biến số g của Spearman.
Một câu hỏi then chốt là g có phải một đại lượng thực hay chỉ là một hư cấu toán học? Câu trả lời đã trở nên rất phức tạp bởi các phương pháp sử dụng để chọn các bài kiểm tra IQ. Chúng giả định rằng phân bố “đúng” của trí thông minh trong một cộng đồng dân số là phân bố chuẩn - được định danh là đường cong hình chuông - và định cỡ các bài kiểm tra bằng cách dùng toán học xử lý các kết quả thu được để chuẩn hóa giá trị trung bình và độ lệch chuẩn. Việc làm này ẩn chứa một mối nguy hiểm tiềm tàng, đó là bạn nhận được thứ mà bạn mong đợi, bởi vì bạn thực hiện từng bước để lọc đi bất cứ thứ gì mâu thuẫn với nó. Stephen Jay Gould đã lên án những mối nguy hiểm này trong cuốn sách Những đo đạc sai lạc về con người (The Mismeasure of Man) xuất bản năm 1981, trong đó, ông đã chỉ ra rằng điểm số thô của các bài kiểm tra IQ không phải lúc nào cũng tuân theo phân bố chuẩn.
Nguyên nhân chủ yếu khiến người ta nghĩ rằng g biểu diễn đặc điểm chân thực của trí tuệ con người là nó là một nhân tố: nói một cách toán học, nó định nghĩa một chiều duy nhất. Nếu nhiều bài kiểm tra khác nhau có vẻ như đo cùng một thứ, thì thật hấp dẫn để kết luận rằng cái thứ đó phải có thực. Nếu không, tại sao các kết quả này lại giống nhau như thế? Một phần của câu trả lời có lẽ là: những kết quả của các bài kiểm tra IQ bị quy giản về một điểm số duy nhất. Điều đó đã nén một tập hợp các câu hỏi đa chiều và các thái độ tiềm tàng thành câu trả lời một chiều. Hơn nữa, bài kiểm tra đã được chọn lọc sao cho điểm số của nó có tương quan mạnh mẽ với quan điểm về các câu trả lời thông minh của người ra đề, và không ai bận tâm xem xét lại khi sử dụng nó.
Tương tự như vậy, hãy tưởng tượng việc thu thập dữ liệu về một vài khía cạnh khác nhau của “kích cỡ” trong thế giới động vật. Bạn có thể cân, đo chiều cao và các chiều dài, chiều rộng, đường kính của chân trái đằng sau, cỡ răng