Jak nepodporoval? Samozřejmě že podporoval, jen v poměru 1:32 právě kvůli počtu 4 FP64 jednotek na SM. Podívej se na Maxwell Tesla karty.del42sa píše:GM200 a GM204 nachlup stejná konfigurac SM, protože Maxwell Titan oproti předchozím čipům nepodporoval double precision výpočty.
Pascaly i mimo GP100 mají samozřejmě jak nativní podporu half-precision -> GP104 - FP16 1:64, GP102 - FP16 1:32, tak i nativní podporu INT8. GP102 v poměru 4:1 - U GTX 1080Ti uměle omezená, GP104 naprosto to samé INT8 4:1 (Tesla P4) - na herních kartách uměle omezená.DOC_ZENITH píše:Taky jich v hernim čipu čekam přesně 0. Stejně jako herní Pascall Geforce nedostaly FP16 a INT8 (Titan XP jako jediná vyjímka má INT8 ale 1080ti ne).
Ohledně INT instrukcí na "herních" Pascalech, tady to máte přímo od nV
devblogs.nvidia.com - Mixed-Precision Programming with CUDA 8The GP102 (Tesla P40 and NVIDIA Titan X), GP104 (Tesla P4), and GP106 GPUs all support instructions that can perform integer dot products on 2- and4-element 8-bit vectors, with accumulation into a 32-bit integer. These instructions are valuable for implementing high-efficiency deep learning inference, as well as other applications such as radio astronomy...
...For such applications, the latest Pascal GPUs (GP102, GP104, and GP106) introduce new 8-bit integer 4-element vector dot product (DP4A) and 16-bit 2-element vector dot product (DP2A) instructions. DP4A performs the vector dot product between two 4-element vectors A and B (each comprising 4 single-byte values stored in a 32-bit word), storing the result in a 32-bit integer, and adding it to a third argument C, also a 32-bit integer.
Předpokládám tedy, že GV10x budou mít jak dedikované FP64,FP16 a INT units, tak i TensorCores kvůli kompatibilitě stejně jako v předchozích případech.