Músico y compositor indio. Director en 1948-1956 del conjunto instrumental de la All India radio, a partir de los años sesenta, tras fundar la escuela de música Kinnara en Bombay, inició sus giras internacionales como intérprete de sitar. A él se debe en buena parte el auge que a la sazón conoció la música oriental en Europa y Estados Unidos, en coincidencia con el movimiento hippie. A finales de la década de 1960, colaboró con los Beatles y actuó con George Harrison en el Concierto para Bangla Desh. Sus composiciones más conocidas son los conciertos para sitar núm. 1 (1971) y núm. 2 (1981) y sus ballets (Inmortal India; Discovery of India, 1944; Samanya Kshati, 1961; Chandalika, 1962). Autor así mismo de música para el cine –suya es, entre otras, la banda musical de Gandhi, de Richard Attenborough, (1981)–, en 1969 publicó la autobiografía Mi música, mi vida
(Claude Elwood Shannon; Gaylord, EE UU, 1916) Ingeniero estadounidense. Se graduó en ingeniería por la Universidad de Michigan en 1936 y, cuatro años más tarde, obtuvo un doctorado de matemáticas en el Massachusetts Institute of Technology.
Durante su estancia en dicha institución empezó a trabajar sobre el problema de la eficacia de los diferentes métodos existentes de transmisión de la información, tanto mediante el flujo a través de hilos o cables como el aéreo, por medio de corrientes eléctricas fluctuantes o bien moduladas por la radiación electromagnética. Shannon orientó sus esfuerzos hacia la comprensión fundamental del problema y en 1948 desarrolló un método para expresar la información de forma cualitativa.
Las publicaciones de Shannon en 1949 demostraron cómo se podía analizar dicha cuantificación (expresada en una magnitud que denominó bit) mediante métodos estrictamente matemáticos. Así, era posible medir la verosimilitud de la información mutilada por pérdidas de bits, distorsión de los mismos, adición de elementos extraños, etc., y hablar con precisión de términos antes vagos, como redundancia o ruido e, incluso, expresar el concepto físico de entropía como un proceso continuado de pérdida de información.
La rama de las matemáticas inaugurada por Shannon se denominó teoría de la información y resultó ser extremadamente útil, no sólo en el diseño de circuitos de computadoras y la tecnología de comunicaciones, sino que también ha hallado aplicaciones fecundas en campos tan diversos como la biología, psicología, fonética e incluso semántica y literatura.
También postuló el teorema del muestreo, que sostiene que una señal debe ser muestreada al doble de su frecuencia natural (o, en su defecto, al doble de la mayor de las frecuencias de dicha señal), para que no se produzca el fenómeno de aliasing o aparición de componentes frecuenciales no deseadas. En 1956 ingresó como profesor en el Massachusetts Institute of Technology