Почему нельзя делить на ноль?

  • Деление на ноль в математике — деление, при котором знаменатель равен нулю. Такое деление может быть формально записано а⁄0, где а — это числитель.
    В обычной арифметике (с вещественными числами) данное выражение не имеет смысла, так как нет числа, которое, умноженное на 0 дает а (а ≠ 0), и поэтому деление на ноль не определено. Исторически одна из первых ссылок на математическую невозможность присвоения значения а⁄0 содержится в критике Джорджа Беркли исчисления бесконечно малых.
    В программировании попытка разделить число с плавающей точкой на ноль приведет к +INF / -INF (Стандарт IEEE 754), однако, в зависимости от языка программирования и типа данных числа (например, целое число) , которое делят на ноль, может: сгенерировать исключение, сообщение об ошибке, остановку выполняемой программы, сгенерировать положительную или отрицательную бесконечность, или может привести к специальному нечисловому значению
  • правило математическое.
    А толку-то, что ты на нуль делить будешь?
  • сам подумай, смысл того если мы будем делить на нуль
  • долго будешь делить, очень долго...
  • Это одно из фундаментальных правил математике и изучить его суть как это не странно можно только с высокого уровня мат. познаний)
    Например в случае предела при делении какого - то положительного числа, на число стремящееся к нулю - получаем бесконечность)) )
    Вообще этот мат. фундамент хоть и прост, но его основы закрыты глубоко в земле - они могут быть и неправильны к тому-же) .
  • На ноль нельзя делить только в школьной программе, т. к. при обычной проверке умножением всегда получается ноль.

    В высшей математике можно работать с нулем в знаменателе, получается предел. (т. е. фактически там можно делить на ноль)

  • Подели на ноль вектор массы в точке 0°0'0" , 0°0'0" и познай...
  • Дели. Ноль получишь.